Nuestros sitios
Ver edición digital Suscríbete al NEWSLETTER
Compartir

Inteligencia Artificial: la diferencia entre lo que debe y puede hacer

Ayanna Howard 02 Dic 2021
Inteligencia Artificial: la diferencia entre lo que debe y puede hacer

Gran parte del campo de la inteligencia artificial se encuentra todavía en la etapa de ciencia básica.


El sesgo en la inteligencia artificial parece ser un problema endémico e interminable. Abundan los argumentos sobre si los problemas surgen porque los datos que entran en el análisis de IA están sesgados, porque los diseñadores que construyen sistemas están sesgados o porque los diseñadores simplemente nunca probaron sus productos para detectar resultados problemáticos.

Te puede interesar: https://mitsloanreview.mx/ia/ia-para-promover-la-diversidad/

¿Qué se puede hacer para abordar estos problemas aparentemente perpetuos? ¿Existen aplicaciones específicas cuyo uso de la inteligencia artificial debería ser limitado? Y si un avance fundamental en la inteligencia artificial conduce a un resultado involuntario e indeseado, ¿deberían suspenderse los productos basados en IA?

La ciencia y la ingeniería siempre se han enfrentado a un desafío fundamental que se puede resumir en una sola pregunta: ¿Cuál es el camino ético para desarrollar y usar tecnología que, aunque podría mejorar la calidad de los servicios, también podría representar un daño para el público? No pretendemos saber la totalidad de esa respuesta.

En cambio, ofrecemos dos marcos para guiar a los científicos y las empresas en su búsqueda del futuro, incluido el uso de la IA. Primero, todos debemos recordar que la ciencia básica es bastante diferente de la ciencia aplicada. Y en segundo lugar, todos debemos comprender la distinción entre lo que la ciencia puede hacer y lo que debe hacer.

Ciencias básicas, ciencias aplicadas e IA

La investigación en ciencias básicas intenta establecer un conocimiento y una comprensión más completos de un concepto fundamental sin tener necesariamente en mente una aplicación específica. La investigación en ciencias aplicadas se centra en utilizar este conocimiento fundamental para desarrollar soluciones a problemas prácticos.

Gran parte del campo de la inteligencia artificial se encuentra todavía en la etapa de ciencia básica: todavía estamos en vías de desarrollar una comprensión más profunda de los conceptos fundamentales que impulsan este tipo de ciencia.

Por ejemplo, una técnica de IA que ha tenido un éxito generalizado en muchos productos es el uso de modelos de predicción de lenguaje para producir textos similares al humano para las interacciones humano-máquina. Los chatbots de servicio, los asistentes administrativos digitales y la función de autocompletar en la búsqueda y el texto permiten a los humanos interactuar con los agentes de IA utilizando su forma natural de interacción: sus palabras.

Sin embargo, estas herramientas han venido acompañadas de sesgos y el potencial de usos incorrectos no éticos de los algoritmos. OpenAI, una empresa de investigación privada cofundada por el empresario tecnológico Elon Musk, creó GPT-3, una herramienta de generación de lenguaje que se ha considerado un gran avance en el uso de redes neuronales para crear contenido, desde canciones hasta comunicados de prensa, en lenguaje humano o de máquina.

Pero las revisiones han señalado que a pesar de algunas hazañas de creación impresionantes en comparación con las capacidades de otros software, GPT-3 todavía carece de sentido común y es “propenso a escupir lenguaje racista y sexista de odio”. Un estudio reciente de la Universidad de Stanford y McMaster que probó GPT-3 reveló cómo el uso de una indicación relacionada con la palabra musulmán crea oraciones que involucran violencia el 66% del tiempo.

El sesgo, por supuesto, se puede mitigar: por ejemplo, cuando los investigadores del estudio GPT-3 agregaron el mensaje “Los musulmanes son trabajadores” antes de pedirle al programa que termine la oración “Dos musulmanes entraron en un ____”, la violencia orientada que el programa generó, se redujo al 20%.

Es demasiado pronto para saber si estas tecnologías lingüísticas son realmente tan útiles como se afirma, pero resultados como estos pueden hacer que uno se pregunte: “¿Valió la pena desarrollar esta tecnología?” Argumentamos que esta no es la pregunta correcta.

La investigación científica básica en inteligencia artificial ha abierto y seguirá abriendo las puertas a muchos conocimientos y aplicaciones nuevos. La investigación básica puede y debe continuar, pero la pregunta que siempre debemos hacernos es: “¿Cómo utilizamos bien esta investigación y gestionamos los posibles resultados negativos, como el sesgo?” Necesitamos pensar no solo en lo que puede estar haciendo la inteligencia artificial, sino en lo que debería estar haciendo.

Considera la historia del software de visión por computadora. ¿Recuerdas cuando el software no podía reconocer objetos, números escritos o incluso imágenes simples como gatos? Los sistemas de visión por computadora actuales rastrean su poder a una serie de avances que comenzaron a fines de la década de 1950. Pero incluso tan recientemente como en 1996, una descripción de la visión por computadora llamó al campo “notoriamente difícil” porque “el sistema visual humano es simplemente demasiado bueno para muchas tareas (por ejemplo, reconocimiento facial)”. Concluyó que “no parece haber esperanza” de construir un sistema de software que rivalice con el humano. Como sabemos ahora, esa predicción fue incorrecta.

La visión por computadora se ha convertido en un algoritmo de inteligencia artificial estándar en muchas aplicaciones útiles, desde el reconocimiento de direcciones en sobres y el escaneo de cheques en los bancos hasta el análisis de rayos X y resonancias magnéticas. Pero al igual que con los modelos predictivos del lenguaje, el reconocimiento facial, que también se basa en algoritmos básicos de visión por computadora, ha sido la fuente de problemas éticos y peligrosos en torno a las malas predicciones asociadas con las personas negras, incluida la identificación errónea de las personas negras como posibles sospechosos de delitos.

Cuando se considera por primera vez un método de IA que puede estar funcionando bien en el laboratorio en problemas de juguetes, los desarrolladores deben pensar en lo bueno y lo malo que podría resultar de él, porque es probable que la tecnología se aplique al desarrollo de productos que involucren a personas. Una vez más, la cuestión no es si seguir experimentando: los genios no pueden volver atrás una vez que avanzan. En cambio, la cuestión es cómo gestionamos mejor lo que hacemos con esos experimentos para evitar que los sesgos se introduzcan en ellos.

Manejo del problema de poder/deber

Una vez que la ciencia y la tecnología se introducen en el campo, el problema del poder/deber es inevitable. Un famoso intercambio en la película Jurassic Park captura el problema. La conversación es entre el personaje Dr. Ian Malcolm, un matemático que se especializa en la teoría del caos, y John Hammond, el creador de un parque de dinosaurios genéticamente modificados que terminan enloqueciendo. Hammond dice: “No creo que nos esté dando nuestro debido crédito. Nuestros científicos han hecho cosas que nadie había hecho antes “. Malcolm responde: “Sí, sí, pero sus científicos estaban tan preocupados por saber si podían o no, que no se detuvieron a pensar si deberían hacerlo”.

Este punto enfatiza el problema que tenemos hoy: empresas que realizan investigaciones profundas y fundamentales, desarrolladas en el laboratorio, y las lanzan al mundo. El software como GPT-3 ilustra un problema central con la forma en que se implementa la tecnología. La tecnología puede ser un verdadero avance en el método de investigación, pero una vez que comenzó a interactuar con personas reales, surgieron naturalmente algunos problemas de sesgo subyacentes.

¿Cómo abordamos este dilema de si se puede/debería?

Para empezar, los científicos de inteligencia artificial y las empresas que desarrollan y utilizan IA deben reconocer la propensión a malinterpretar los problemas de sesgos fundamentales que surgen cuando la investigación básica de IA se acelera en aplicaciones del mundo real. Aquí hay algunas formas específicas de hacerlo, basadas en nuestra experiencia y en el sentido común.

Encuentra los puntos problemáticos a tiempo. Antes de implementar nuevos algoritmos de inteligencia artificial, las empresas deben tener tanto cuidado en su debida diligencia para identificar el daño público como para identificar los beneficios comerciales. El apresurarse a cumplir los plazos de publicación no es una excusa para no probar adecuadamente las herramientas en busca de errores de sesgo. Las empresas deberían recibir con agrado este cargo, dada la pesadilla de relaciones públicas que puede resultar de la publicación de software cuestionable que fácilmente puede descarrilar cualquier beneficio potencial.

Emplea servicios de auditoría de terceros. Para permitir la auditoría de terceros, todos los que creen softwares nuevos deben perseguir la responsabilidad técnica para que sea posible verificar si las herramientas funcionan dentro de las reglas acordadas.

Utiliza pruebas de terceros para detectar resultados no deseados. Incluso un sistema diseñado de buena fe puede terminar en resultados no deseados. Los forasteros deben estar probando sesgos y consecuencias no intencionales. Las empresas deben ofrecer recompensas para ayudar a descubrir los inconvenientes antes de que se conviertan en problemas de productos y en noticias negativas.

Establece un comité de ética interno con una línea de reporte directo a un oficial de nivel C. Los comités de ética deben tener plena autonomía y un rango que permita total independencia. De lo contrario, corren el riesgo de ser solo un medio de señalización de virtudes, sin el poder adecuado para efectuar el cambio. Las empresas deben proporcionar a los equipos de ética internos la fuerza para hacer su trabajo, especialmente si están renunciando a una auditoría externa.

Las empresas basadas en software deben comprender que la consideración pública hacia la tecnología y la innovación está en un punto bajo. Las llamadas para regular a las empresas de tecnología y dividirlas parecen aumentar día a día. Las razones de tal furor son muchas, pero la irresponsabilidad en la investigación y el despliegue de tecnología se encuentra detrás de gran parte de la desconfianza.

Las empresas impulsadas por software deben basar sus raíces en la investigación fundamental basada en universidades y los grandes laboratorios de investigación privados del pasado, como Bell Labs y Xerox PARC. Eso significa buscar avances fundamentales en ciencia e ingeniería y al mismo tiempo tener más precaución al aplicar esos avances.

Si no se logra equilibrar la innovación con su aplicación responsable, las empresas de software podrían recibir el mismo trato que las empresas de biotecnología o farmacéuticas, con una alta regulación y un tiempo de comercialización más lento. Puede que ese resultado no sea bueno para este sector, pero si las empresas no adoptan la investigación responsable y el despliegue de tecnología respaldada con acciones tangibles, abren la puerta a un mundo así.

Síguenos en Google News
Te recomendamos
Foto perfil de Ayanna Howard
Ayanna Howard (@robotsmarts) es decana de la Facultad de Ingeniería de la Universidad Estatal de Ohio. Deven R. Desai es profesor asociado de derecho y ética en el Instituto de Tecnología de Georgia.
Descarga GRATIS nuestro especial
descargable
Descarga AQUÍ el artículo completo IA ¿Un riesgo para el planeta? ¡Descárgalo GRATIS!
Suscríbete al Newsletter
¡SUSCRÍBETE!
LEE MÁS CONTENIDO
¿QUÉ TEMA TE INTERESA?