Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

Proteger a la sociedad de los daños de la IA: Matt Mahmoudi y Damini Satija de Amnistía Internacional (I)

Sam Ransbotham y Shervin Khodabandeh 01 Dic 2023
Proteger a la sociedad de los daños de la IA: Matt Mahmoudi y Damini Satija de Amnistía Internacional (I) Amnistía Internacional se toma muy en serio el uso y desarrollo de la IA. (MIT SMR)

Dos investigadores de la organización de derechos humanos debaten la intersección de la política social y la tecnología, así como los problemas que plantea el uso de la IA en el sector público.


Amnistía Internacional reúne a más de 10 millones de miembros del personal y voluntarios en todo el mundo para defender la justicia social. Damini Satija y Matt Mahmoudi trabajan con Amnesty Tech, una división de la organización que se centra en el papel del gobierno, las grandes tecnologías y la Inteligencia Artificial (IA) en áreas como la vigilancia, la discriminación y los prejuicios.

En este episodio del podcast Me, Myself, and AI, Matt y Damini hablan sobre los escenarios en los que las herramientas de IA pueden poner en riesgo los derechos humanos. Por ejemplo, cuando los gobiernos y las agencias del sector público utilizan sistemas de reconocimiento facial para rastrear a activistas sociales.

Damini y Matt advierten de que la tecnología de IA no puede solucionar problemas humanos como los prejuicios, la discriminación y la desigualdad. Para ello será necesaria la intervención humana y cambios en las políticas públicas.

Para saber más sobre lo que pueden hacer las organizaciones para combatir las consecuencias negativas del uso de IA, sintoniza la segunda parte de esta conversación.

Suscríbete a Me, Myself, and AI en Apple Podcasts, Spotify o Google Podcasts.

Cómo fomentar el uso de IA ética para que crezca tu negocio

Transcripción

Shervin Khodabandeh: Muchos de nuestros invitados pretenden utilizar la IA para hacer el bien en sus organizaciones. En el episodio de hoy, hablamos con dos investigadores que se centran en la protección de los derechos humanos cuando se utilizan herramientas de inteligencia artificial.

Damini Satija: Soy Damini Satija …

Matt Mahmoudi: … y yo soy Matt Mahmoudi de Amnistía Internacional …

Damini Satija: … y estás escuchando Me, Myself, and AI.

Sam Ransbotham: Bienvenidos a Me, Myself, and AI, un podcast sobre inteligencia artificial en los negocios. En cada episodio les presentamos a alguien que está innovando con IA. Soy Sam Ransbotham, profesor de analítica en el Boston College. También soy editor invitado de IA y estrategia empresarial en MIT Sloan Management Review.

Shervin Khodabandeh: Y yo soy Shervin Khodabandeh, socio sénior de BCG y uno de los líderes de nuestro negocio de IA. Juntos, MIT SMR y BCG han estado investigando y publicando sobre IA desde 2017. Hemos entrevistado a cientos de profesionales y encuestando a miles de empresas sobre lo que se necesita para construir y desplegar y escalar las capacidades de IA y realmente transformar la forma en que operan las organizaciones.

Bienvenidos. Hoy, Sam y yo estamos encantados de hablar con Matt Mahmoudi y Damini Satija de Amnistía Internacional. Matt, Damini, gracias por acompañarnos hoy. Empecemos. Matt, háblanos un poco de tu papel en Amnistía.

El papel de Matt Mahmoudi y Damini Satija en Amnistía Internacional

Matt Mahmoudi: Por supuesto. Y, sí, muchas gracias por recibirnos. Soy asesor e investigador sobre inteligencia artificial y derechos humanos en el programa tecnológico de Amnistía.

Mi papel se ha centrado en cómo ciertas tecnologías de IA y, en particular, la vigilancia impulsada por IA son adoptadas por las agencias policiales y desarrolladas por las empresas. Esto a menudo conduce a resultados discriminatorios, desigualdades de diversas formas, y afectan a algunas de las comunidades históricamente más marginadas.

En los últimos dos años, en particular, he estado investigando la implantación del reconocimiento facial, las empresas implicadas y los lugares en los que la policía utiliza estas herramientas.

Hemos estudiado el reconocimiento facial en lugares como la ciudad de Nueva York, Hyderabad (India) y los territorios palestinos ocupados. Estamos prestando mucha atención a la forma en que estas tecnologías, que prometían una mayor eficacia y una forma más inteligente de trasladar a las personas de un punto a otro o de garantizar su seguridad, están conduciendo en realidad a la erosión de sus derechos.

La estructura de Amnistía Internacional

Sam Ransbotham: Matt, cuéntanos un poco qué hace Amnistía Internacional, cuál es su estructura y cómo se iniciaron sus prácticas tecnológicas.

Matt Mahmoudi: Amnistía Internacional es un movimiento de más de 10 millones de personas de todo el mundo. Colaboran a través del voluntariado o de la investigación, la defensa y las campañas para defender los derechos humanos.

En Amnistía Tecnológica trabajamos un colectivo de tecnólogos para intentar que las empresas y los Estados rindan cuentas sobre el uso y el desarrollo de IA que ponen en peligro los derechos humanos.

Así que nuestro trabajo consiste en investigar y exponer las formas en que esas configuraciones de tecnologías se están utilizando para erosionar esos derechos. y, en la medida de lo posible, abogar por salvaguardias y normativas más sólidas y prácticas de derechos humanos.

¿Qué es Algorithmic Accountability Lab?

Shervin Khodabandeh: Damini, cuéntanos un poco qué hace el Algorithmic Accountability Lab.

Damini Satija: Sí, muchas gracias por recibirnos hoy aquí. Trabajo en el programa de tecnología y dirijo un equipo llamado Algorithmic Accountability Lab. Somos un equipo relativamente nuevo dentro de Amnesty Tech.

Nos centramos específicamente en el creciente uso de la automatización y las tecnologías de IA en el sector público y, dentro de eso, específicamente en contextos de bienestar. Así que nos fijamos en cómo los gobiernos y los organismos del sector público están utilizando la automatización para determinar quién tiene acceso a los servicios básicos esenciales.

Por ejemplo: la vivienda, la educación, las prestaciones de salud, y así sucesivamente.

Nuestro interés particular es investigar y comprender cómo estas herramientas tienen un impacto discriminatorio en grupos ya marginados. Algo de lo que ya hemos visto pruebas en la automatización del sector público o la automatización de la asistencia social.

El propio equipo es multidisciplinar y está formado por siete personas. Entre ellos: científicos de datos, investigadores de derechos humanos, abogados, juristas. Todo un abanico. Esto para apoyar la visión de que adoptaremos una visión holística a la hora de interrogar y comprender el impacto de estos sistemas en la sociedad.

10 puntos para entender la ley que pretende regular la IA en Europa

Los guardianes de la IA

Shervin Khodabandeh: Gracias. Esto es muy interesante, Sam, porque cuando la mayoría de nuestros invitados nos hablan de cómo utilizan la IA, es para crear más beneficios. Pero parece que tu papel es asegurarte de que no hacemos cosas malas con la IA, ¿verdad?

Y en ese contexto, dada tu experiencia y conocimientos en IA, ¿cuáles crees que son algunos de los principios rectores y en qué se diferencian? Por ejemplo, cuando estás buscando malos actores, tengo que imaginar que es fundamentalmente un poco diferente a buscar hacer el bien. Voy a empezar contigo, Matt. ¿Cómo lo haces?

La búsqueda de las malas prácticas entorno a la IA que hace Amnistía Internacional

Matt Mahmoudi: Bueno, a menudo nos enteramos de casos de personas que han sufrido algún tipo de discriminación. Por ejemplo, en Nueva York nos pusieron en contacto con un activista llamado Derrick Ingram, fundador de un colectivo conocido como Warriors in the Garden. Pero que también era un destacado activista dentro de la comunidad Black Lives Matter.

Él había sido objeto de acoso por parte de la policía, que se presentó en su puerta y lo amedrentó durante cuatro horas por algo que él no sabía que había hecho. En realidad, no había una respuesta clara a por qué estaban allí.

Y resulta que algunos periodistas se dieron cuenta de que la policía había impreso un informe de identificación de reconocimiento facial, que estaba presente en la escena. Que luego lo había identificado como uno de los únicos manifestantes identificables de una protesta de Black Lives Matter.

En este contexto, descubrimos que, en realidad, la policía simplemente había identificado a este manifestante destacado con un megáfono. Como resultado, consideraron que era de su competencia, presentarse en su puerta y acosarle. Sin una orden.

La policía acabó presentando una acusación falsa en la que se le denunció por acercar demasiado un megáfono a la oreja de un agente. Todo esto sucedía mientras Amnistía investigaba a qué otros miembros de la comunidad había estado apuntando la policía de Nueva York con este software. Además de quién estaba desarrollando la tecnología que estaban utilizando.

Defender los derechos humanos de quienes los defienden en el ámbito tecnológico, el poder de Amnistía Internacional

Nuestro trabajo ha girado normalmente en torno a enfoques convencionales, como las solicitudes de la Ley de Libertad de Información. Pero también ha implicado el uso, por ejemplo, de las imágenes de Google Street View para etiquetar las cámaras gestionadas por la policía de Nueva York. Esto es solo para darnos una idea de lo ampliamente expuestos que están los neoyorquinos a los sistemas de cámaras en red.

Sam Ransbotham: Algo que me molesta cuando la gente habla de IA es esta tendencia, creo, a utilizar un lenguaje antropomórfico. Resulta tentador utilizar frases como “la IA hace X” o “la IA hace Y”, y ya resulta sorprendente que al hablar con ambos, ninguno de los dos haya utilizado la IA como un actor.

Promover el mensaje a los malos actores

Es una herramienta, y parecen muy centrados en quién es el actor. Así que lo difícil es que si una herramienta puede amplificar lo bueno y lo malo. ¿Cómo promovemos un mensaje a los actores reales? Incluso es difícil trazar una línea divisoria entre el bien y el mal.

Damini Satija: Sí, y si me permites utilizar esto también para enlazar con una pregunta anterior en la que preguntabas por los malos actores, creo que es muy revelador en sí mismo porque estamos muy centrados en el actor, y no se trata solo de la IA.

También se trata de quién ha diseñado la IA, cómo se ha diseñado, quién la utiliza y en qué contexto se utiliza. Y tenemos que tener mucho cuidado de no centrarnos en lo que está mal en la IA. Esto es orque eso también nos puede llevar a la trampa de “Hay una solución técnica para este problema“.

Pero a menudo, las herramientas de IA que estamos viendo también están operacionalizando un determinado entorno que nos preocupa, ¿verdad? Así que, por ejemplo, si estamos viendo una herramienta que se utiliza en un contexto de inmigración, y la narrativa predominante es xenófoba, operacionalizará las políticas que encajan en esa categoría.

Así que no se trata sólo de la tecnología, como usted dice, sino también del entorno en el que se desarrolla, se adquiere y se despliega.

Mal uso, la palabra clave para la vigilancia de Amnistía Internacional

Y eso significa que no siempre nos fijamos en los malos actores como tales, sino en el mal uso, por decirlo de forma muy sencilla. Pero creo que ese es un factor que nos guía a la hora de buscar los casos que tenemos que investigar.

Creo que otro ejemplo que me viene a la mente aquí donde una herramienta no fue desplegada específicamente para una consecuencia negativa. Pero terminó teniendo una consecuencia negativa es un caso de un algoritmo de vivienda que se utilizó en San Francisco. Y hubo una historia sobre esto hace un año más o menos.

El ejemplo del acceso a la vivienda pública

Hubo una herramienta que se desarrolló para los trabajadores sociales a utilizar en la asignación de viviendas públicas. Y la intención detrás del desarrollo de esa herramienta era proporcionar algo que permitiera a los trabajadores sociales tener una conversación más informada con las personas con las que están trabajando que necesitan ayuda para la vivienda.

Y la herramienta específicamente les ayudaría a construir una especie de evaluación del riesgo de la persona para determinar la cantidad de asistencia que necesitan.

Esa herramienta estaba pensada para facilitar las conversaciones. Sin embargo, tal y como se utilizaba, los trabajadores sociales tomaban decisiones afirmativas o negativas. Esto basándose en lo que la herramienta les decía sobre quién debía recibir ayuda para la vivienda y quién no.

Así que … Quiero decir que se podría argumentar que es un mal uso, pero también es una especie de uso no intencionado de la herramienta. Así que hay todo tipo de realidades que estamos viendo que no son tan fáciles. Nunca es fácil decir que el problema está en la propia IA, que no responde a su pregunta original. Pero era un poco de contexto que quería añadir en el tipo de malos actores pregunta.

Regular la innovación en México: Retos y perspectivas, ¿qué le falta al país?

La importancia de la IA y la interacción humana

Shervin Khodabandeh: También pone de relieve lo que dices: la importancia de la IA y de la interacción humana, y no sólo de una frente a la otra, o de una u otra.

Porque en todos estos ejemplos, hay ejemplos de uso no intencionado o imprevisto, o tal vez debido a la falta de formación, o donde la narrativa subyacente no es que empieces con la intención de hacer daño; simplemente no sabías o no anticipaste que “Oh, se supone que sólo debo usarlo como una entrada frente a como una indicación“.

La única pregunta que tengo… y aludiste a ello, pero fue en una dirección diferente a la que yo pensaba que iba a ir, porque dijo:

“No estamos hablando de lo que está mal con la tecnología, porque la implicación sería que hay una solución tecnológica”.

Pero me gustaría cuestionar eso, porque ¿por qué parte de la solución no sería, al menos, tecnológica?

Damini Satija: Sí, hay soluciones técnicas para el sesgo, y hay gente que ha desarrollado herramientas para eliminar el sesgo. Creo que la razón por la que no queremos limitarnos completamente a eso es por lo que he señalado.

Tenemos que adoptar un enfoque más holístico para comprender el impacto de estas tecnologías porque, como decimos, no se trata solo de la forma en que está diseñada la herramienta. También se trata de la interacción humana con las herramientas y de cómo los humanos las utilizan.

Soluciones técnicas para eliminar problemas como el sesgo

Creo que el otro problema es que la vía de la solución técnica puede hacer que adoptemos un enfoque muy aislado del problema. Así, por ejemplo, en el mundo de la ética de la IA y la equidad algorítmica, se han propuesto muchas soluciones para eliminar el sesgo. Lo que implica que el sesgo, de una forma muy técnica dentro del sistema algorítmico o de IA, es el único problema.

Pero creo que es muy posible que podamos resolver eso desde una perspectiva técnica, pero todavía hay una miríada de otros problemas con las herramientas que estamos viendo. En primer lugar, pueden seguir utilizándose de forma discriminatoria, aunque se haya solucionado técnicamente. Hay problemas de vigilancia, se trata de tecnologías con un uso intensivo de datos.

Efectos de segundo y tercer orden en el uso de la IA

También nos preocupan los efectos de segundo y tercer orden de estas tecnologías. Por ejemplo, retomando el ejemplo de la vivienda, si se utiliza una herramienta para denegar a alguien una vivienda o para denegar a alguien el acceso a las prestaciones de la Seguridad Social.

Luego esa persona no puede pagar el alquiler o comprar alimentos para su familia, esos son efectos que se han producido a dos o tres grados de separación de la herramienta, y siguen produciéndose incluso si se invierte o se retira el algoritmo del panorama. Ese impacto sigue existiendo y sigue ocurriendo.

Creo que el énfasis, desde nuestra perspectiva, es mantener esa comprensión holística de las consecuencias sociales así como técnicas. No sé si Matt quiere añadir algo al respecto.

Consecuencias sociales del uso de la IA

Matt Mahmoudi: Me encantaría profundizar un poco más en este tema, en particular por el ejemplo de la vivienda y otros ejemplos similares. También, los algoritmos de indicadores de riesgo que son utilizados por los servicios de protección de menores con el fin de tomar determinaciones sobre si se debe retirar a un niño de la acogida o incluso ponerlo en acogida.

Especialmente el trabajo de Virginia Eubanks describirá cómo los trabajadores sociales que se enfrentan a este algoritmo toman decisiones de acuerdo con un indicador basado en la luz que les da una especie de señal roja si parece que ha habido demasiados informes no solicitados de que el bienestar del niño está en peligro.

Y realmente, lo que eso te dice es que el sistema en sí mismo, la tecnología en sí misma, no es tan fácil de arreglar como, ya sabes, decir:

“Oh, bueno, entonces deshazte de los indicadores y conviértelos en una forma más descriptiva de texto”.

Porque se trata de una tecnología que va mucho más allá del propio código, que es a lo que Damini se refiere aquí también. Es todo un sistema sociotécnico.

No se puede sostener que la IA es una cosa sin sostener también que hay una interacción entre el ser humano y el ordenador que anima el funcionamiento de ese sistema y lo que hace.

Por tanto, lo que está escrito en el código es en cierto modo irrelevante. Lo que hace y lo que acaba haciendo en el mundo es lo que realmente importa y lo que nos dice lo que el sistema es en realidad.

Todos los impactos y sistemas detrás de la IA tienen que ser entendidos: Amnistía Internacional

Por lo tanto, descentrarnos de la noción de que la desprejuiciación es una virtud cuando se trata de tecnologías de IA. Además, descentrarnos de la idea de que hay una solución técnica del sistema y, en su lugar, sostener que todos estos sistemas deben ser probados y comprendidos desde el punto de vista de los posibles impactos que podrían tener en la sociedad en general podría llevarnos a la aplicación y el despliegue de “mejores tecnologías“.

En cuanto a cómo podemos utilizar las tecnologías para identificar ciertas tecnologías perjudiciales. Un ejemplo que mencioné antes fue cómo utilizábamos herramientas de mapeo de calles para hacernos una idea de dónde había cámaras. Para que quede claro, ahí no utilizamos un algoritmo de reconocimiento de imágenes. Todo eran personas.

Esto nos permitió ampliar nuestros esfuerzos de voluntariado a unas 7 mil 500 personas de todo el mundo que nos ayudaron a etiquetar con cámaras todos los cruces de la ciudad de Nueva York. Creo que es un modelo bastante convincente de cómo se puede ampliar el activismo. Y desde luego, cómo podría ser una intervención que promoviera un mayor respeto por el derecho a la protesta.

Legislar la IA es una acción inútil, el futuro es la autorregulación: Jeffrey Cole

Información para los desarrolladores de IA

Shervin Khodabandeh: Creo que me refería a la tecnología. No se trataba de decir: “Dejemos que la tecnología solucione el problema que ha creado”, porque el problema lo crea el uso que se hace de ella, como lo dijiste.

Y, por supuesto, cuando estamos hablando de una tecnología poderosa utilizada por instituciones que tienen poder para hacer política. Por supuesto que el actor y la motivación del actor y el uso tienen mucha más prioridad que una solución tecnológica. Pero también tengo que creer que la IA no va a ir a ninguna parte y que la tecnología no hará más que mejorar.

Y me pregunto… todas las deficiencias que sus equipos están encontrando, eso es retroalimentación a los algoritmos y a la instrumentación que hace el reconocimiento de imágenes.

Y en el ejemplo, Damini, del que hablaste con la carcasa, me pregunto si podría haber salvaguardas o avisos adicionales o alimentación de datos adicionales. Estos para que realmente hicieran casi imposible que esa tecnología que estaba tomando la decisión sobre qué hacer para un humano confiara en la elección tecnológica.

Así que creo que, como usuarios y como organismos que supervisan el uso, debemos transmitir alguna información a la comunidad de desarrolladores que crean estas herramientas.

No quiero decir que el sesgo sea el problema central. Quiero decir que has destacado muchas áreas diferentes en las que los artefactos tecnológicos podrían ayudar a avanzar en la causa de la que estás hablando.

¿Qué es lo que pide Amnistía Internacional con el objetivo de proteger los derechos humanos?

Damini Satija: Sí, en cuanto a las salvaguardias, podríamos hablar de muchas en términos de lo que pedimos como comunidad de derechos humanos en la regulación. Creo que Matt ya ha aludido a la salvaguardia número 1, que es cuestionar claramente desde el principio.

Esto en la conceptualización misma de estas tecnologías, si son necesarias y si la automatización es realmente necesaria en un contexto determinado. Al hacerlo, interrogar y escudriñar cuál podría ser el impacto violatorio de derechos o desproporcionado de esta tecnología.

Y creo que lo que se nos plantea una y otra vez en nuestro trabajo es: ¿qué voces se escuchan? ¿De quién es la articulación de los problemas que hay que resolver utilizando la tecnología en esa fase de conceptualización?

Lo que a menudo nos enfrentamos en nuestro trabajo es que hay ciertos grupos de voces muy poderosas, que acabas de mencionar también. Ya sabes, los responsables políticos, las grandes empresas de tecnología, los que tienen financiación para desarrollar nuevas tecnologías…

Aquellos que tienen el poder de dictar realmente la trayectoria de la IA son aquellos cuyas voces también se escuchan en lo que la IA se está desarrollando y desplegando. Mientras que aquellos que se ven afectados por el uso de estos sistemas a menudo dicen: “Hemos mencionado los impactos raciales”.

Generalmente las comunidades negras se ven realmente afectadas y perjudicadas por estos sistemas. Esas no son las voces que están alimentando los problemas que necesitan ser resueltos a través de esta tecnología. Pero es ese desequilibrio de poder lo que realmente nos preocupa en términos de la voz de quién está siendo escuchada y lo que debería ser conceptualizado.

Se trata de una salvaguarda intangible, pero muy, muy importante para nuestro trabajo.

Shervin Khodabandeh: Muy bien dicho.

Encontrar una solución sin abrir la caja de Pandora

Sam Ransbotham: Es interesante que menciones el ejemplo del trabajo social. Mi madre era trabajadora social y trabajaba en el ámbito de la acogida.

Y ese es un mundo con escasez de personal y exceso de trabajo. Por eso, cuando pusiste ese ejemplo, una parte de mí pensó que todavía hay formas de ayudar a esas personas a mejorar.

Puede que no sea perfectamente correcto, puede que no haga predicciones a la perfección, pero teniendo en cuenta tantas otras cosas, puede que sea una solución mejor. Entonces, ¿cómo conseguir una solución mejor sin abrir esta caja de Pandora de dificultades hasta el punto de que podamos mejorarla y obtener experiencia con el tiempo? ¿Cómo se consigue eso?

Vigilar el uso de la IA no significa estar en su contra, de acuerdo con Amnistía Internacional

Matt Mahmoudi: Si me permites intervenir, Sam, creo que siguiendo con el ejemplo de los trabajadores sociales y con un programa concreto que analiza Virginia Eubanks, es interesante. Esto porque el Estado acaba gastando más dinero en intentar mantener una tecnología que ha fracasado que el que habría gastado intentando dotar a los trabajadores sociales de más recursos.

Esto detiene la contratación de más trabajadores sociales que pudieran realizar su trabajo de forma más adecuada y acorde con la demanda.

Así que creo que, sólo tomando de la página de una pieza de lectura que me gusta asignar siempre a una clase que estoy enseñando sobre estudios de ciencia y tecnología, que es una especie de dibujo de Chellis Glendinning “Notas hacia un manifiesto neo-ludita“, voy a decir que no soy anti-tecnología, y los neo-luditas tampoco lo son.

Creo que eso es algo así como el punto crucial aquí: que, A, los neo-luditas no son anti-tecnología. Están preocupados por las formas en que la tecnología crea números de personas y conduce hacia una hiperracionalidad. Esta característica elimina estas importantes cuestiones de daño.

Toda la tecnología es política

Y en segundo lugar, y esto es muy importante, todas las tecnologías son políticas. Tenemos que entender cuáles son las formas de política y las políticas que sustentan el despliegue concreto de una tecnología en lugar de.

Por ejemplo, invertir en los programas sociales concretos que se necesitan. Los ejemplos que Damini ha ido mencionando a lo largo de todo el debate muestran que se insiste en invertir en herramientas tecnológicas con el pretexto de que permitirán ahorrar costes en el futuro.

Sin embargo, la realidad es que muchas veces los estados acaban teniendo que gastar mucho más dinero o bien intentando que las empresas rindan cuentas de lo que prometieron pero no pudieron cumplir o bien enfrentándose a demandas de particulares.

Ya sean demandas colectivas o lo que sea, dados los perjuicios que habrían ocasionado a las personas que se han visto sometidas a estas formas masivas de tecnologías idealizadas.

Lo que creo que va al punto de, tratar de descubrir cuál es la política que subyace y ver si hay una solución social-política-económica que en realidad podría ser más sostenible que tratar de salir de nuestro camino y entrar en esta tierra de fantasía de “IA va a resolver todo” y alejarse un poco de eso.

Derechos post mortem: El dilema ético que conlleva el uso de la IA en temas legales

Las herramientas IA en versión beta también son una amenaza

Creo que, sobre todo, con herramientas como los modelos de chatbot basados en GPT y demás, estamos tratando con sistemas que parecen estar en perpetua beta. Por lo que pueden afirmar constantemente que no están funcionando como deberían y que pueden tener consecuencias no deseadas.

Esto porque no han procesado suficientes datos o no han elaborado bien el modelo. Y puedes quedarte con ese argumento durante mucho, mucho, mucho tiempo.

La regulación es necesaria ante la llegada de más herramientas IA

Pero la cuestión es cuándo nosotros, como sociedad civil, y cuándo nosotros, como personas que formamos una circunscripción de legisladores que pueden hablar en nuestro nombre. Esto significa regular en nuestro nombre, frenamos y decimos:

“No, estos son productos que están a la vista. Tienen un impacto y, por tanto, deben estar sujetos a regulación”.

No importa lo grande que sea el modelo lingüístico. No importa lo grande que tenga que ser para alcanzar un punto de saturación en el que funcione de acuerdo con alguna fantasía prescrita de eficiencia.

Tenemos que llegar a un punto en el que digamos: “Necesitamos regulación“. Creo que la Ley de Inteligencia Artificial de la Unión Europea es un primer intento realmente bueno de intentar crear una legislación a nivel regional que comprenda el tipo de consecuencias a las que nos enfrentamos.

Despedida de la primera parte del episodio

Shervin Khodabandeh: Damini, Matt, muchas gracias por este debate tan esclarecedor.

Damini Satija: Gracias.

Shervin Khodabandeh: Gracias por escucharnos. Por favor, únase a nosotros la próxima vez, cuando traigamos a Matt y Damini de vuelta para continuar la discusión sobre la regulación de la IA.


Allison Ryder: Gracias por escuchar Me, Myself, and AI. Creemos, como tú, que la conversación sobre la implementación de la IA no empieza y termina con este podcast.

Por eso hemos creado un grupo en LinkedIn específicamente para oyentes como tú. Se llama AI for Leaders, y si te unes a nosotros, podrás charlar con los creadores y presentadores del programa. Puedes acceder visitando mitsmr.com/AIforLeaders. Pondremos ese enlace en las notas del programa, y esperamos verte allí.

Me, Myself, and AI es un podcast en colaboración de MIT Sloan Management Review y Boston Consulting Group, presentado por Sam Ransbotham y Shervin Khodabandeh. Nuestro ingeniero es David Lishansky, y las productoras coordinadoras son Allison Ryder y Sophie Rüdinger.

Síguenos en Google News
Te recomendamos
Foto perfil de Sam Ransbotham y Shervin Khodabandeh
Sam Ransbotham y Shervin Khodabandeh Sam Ransbotham (@ransbotham) es profesor del departamento de sistemas de información de la Carroll School of Management del Boston College, así como editor invitado de la iniciativa Big Ideas de Inteligencia Artificial y Estrategia Empresarial del MIT Sloan Management Review. Shervin Khodabandeh es socio sénior y director gerente de BCG y colíder de BCG GAMMA (la práctica de IA de BCG) en Norteamérica. Puede ponerse en contacto con él en shervin@bcg.com.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo Especial Foro MIT 2023 ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!