Liderazgo Capital Humano Actualidad

En esta nueva era, ¿estamos confiando demasiado en la IA?

Como la IA sigue cometiendo errores enormes, la gente necesita señales que le permitan saber cuándo debe volver a pensar en las herramientas.

Ayanna Howard 05 Nov 2024

La gente confía demasiado en la Inteligencia Artificial (IA) porque cree que funciona la mayor parte del tiempo.

Cuando la tecnología no funciona, las opiniones pueden a veces oscilar radicalmente en la dirección opuesta, hacia la desconfianza o la falta de confianza.

Publicidad
Publicidad

La gente puede reaccionar exageradamente, pero eso es poco frecuente: la gente no suele desconfiar. Por ejemplo, después de un accidente aéreo, nadie dice: “Necesitamos una prohibición para asegurarnos de que nadie vuelva a volar nunca más”.

El mayor desafío al pensar en la tecnología y la confianza es que confiamos demasiado y nos hacemos vulnerables a los errores de la IA.

Veo varias necesidades en este momento de la evolución de la tecnología. La primera es que las empresas tecnológicas, en particular las que se dedican a la inteligencia artificial y la Inteligencia Artificial generativa , deben encontrar formas de combinar el coeficiente emocional humano con la tecnología para dar a las personas señales sobre cuándo deben dudar de dichas herramientas.

Esto ayudará a garantizar que la confianza de los clientes en la tecnología esté justificada.

En segundo lugar, los usuarios de estas tecnologías tienen que entrenarse para estar continuamente alerta.

Cuáles son los 3 demonios que impiden la regulación de la IA en el mundo

Sacar a la superficie los riesgos

En enero viajé a Davos, Suiza, para la Reunión Anual del Foro Económico Mundial número 54. Participé en dos paneles de discusión sobre los empleos del futuro: uno llamado Acerca de los Robo-Aliados y el otro Cómo confiar en la tecnología.

Durante el segundo, que se presentó como un debate en un ayuntamiento y una sesión de preguntas y respuestas, pregunté a los miembros de la audiencia cuántos de ellos habían utilizado ChatGPT o alguna tecnología de IA generativa equivalente.

Todos levantaron la mano. Pregunté cuántos lo habían utilizado para hacer un trabajo o algún tipo de trabajo, y la respuesta fue casi (pero no del todo) del 100 por ciento.

A estas alturas, muchas personas, especialmente aquellas en el ámbito corporativo, han jugado con ChatGPT. La gente lo usa a pesar de que la herramienta genera errores.

Un abogado fue criticado por un juez después de que presentó un escrito al tribunal que contenía citas legales que ChatGPT había inventado por completo .

Los estudiantes que han entregado ensayos generados por ChatGPT han sido descubiertos porque los trabajos estaban muy bien escritos y mal escritos. Sabemos que las herramientas de IA generativa no son perfectas en sus iteraciones actuales. Cada vez más personas están empezando a comprender los riesgos.

Lo que aún no hemos descubierto es cómo abordar esto como sociedad. La IA generativa es tan útil y valiosa: cuando funciona bien, realmente mejora nuestra vida laboral. Pero cuando funciona mal y no usamos nuestro coeficiente intelectual humano para corregirlo, las cosas pueden empeorar rápidamente.

Generar confianza mediante la regulación y el escepticismo ante la IA

Mi filosofía sobre este tema se basa en la cuestión de cómo integrar mejor la inteligencia emocional humana en nuestras herramientas de IA. En cierto modo, la avalancha de jugadores en el espacio de la IA me preocupa. Es similar a la época en que nació la electricidad, cuando muchos inventores estaban experimentando con lámparas incandescentes.

En ese tiempo se terminaron creando bombillas que literalmente explotaban en las casas de la gente. Había iluminación interior, pero existía un peligro.

En el caso de la IA, no tenemos eso. Básicamente, cualquiera puede participar y crear un producto. Tenemos inventores que no saben lo que están haciendo y que venden a empresas y consumidores que son demasiado confiados.

Como investigador de tecnología y decano universitario, también me dedico un poco a las políticas con respecto a la IA y las regulaciones, al participar en el Comité Asesor Nacional de Inteligencia Artificial.

Creo que las políticas serán fundamentales para generar confianza. Las políticas y regulaciones permiten la igualdad de condiciones al establecer expectativas y ramificaciones si las empresas u otros gobiernos las violan. Ahora bien, algunas empresas ignorarán las políticas y simplemente pagarán las multas, pero aún existe cierto concepto de consecuencia.

En este momento, hay mucha actividad en torno a las regulaciones. Está la propuesta de Ley de IA de la UE, el borrador de las directrices de IA publicado por el gobierno japonés y propuestas ligeramente diferentes en los Estados Unidos, incluida la orden ejecutiva de Inteligencia Artificial del presidente Biden.

También hay actividad específica a nivel estatal: el otoño pasado, el gobernador de California pidió un estudio sobre el desarrollo, el uso y los riesgos de la IA dentro del estado, con el objetivo de establecer “un proceso deliberado y responsable para la evaluación y el despliegue de la IA dentro del gobierno estatal”.

Al mismo tiempo, los usuarios humanos de la IA deben estar más atentos al hecho de que puede ofrecer resultados tremendamente incorrectos en casi cualquier momento.

Legislar la IA es una acción inútil, el futuro es la autorregulación: Jeffrey Cole

Desmitificar y vigilar el camino que toma la IA

Creo que debemos recordar aquel experimento de evacuación en caso de incendio de 2011. Así como no queremos que la gente siga a un robot en un pasillo lleno de humo para alejarlo de la puerta de salida. Tampoco queremos que los usuarios confíen ciegamente en lo que la IA les presenta.

En el caso de algunos tipos de tecnologías, como los dispositivos de red, los sistemas de datos y los servicios en la nube, se está avanzando hacia la confianza cero porque las personas suponen que van a ser atacadas por piratas informáticos.

Suponen que existen actores maliciosos, por lo que diseñan procesos y marcos para lidiar con eso.

En el ámbito de la IA, no existe ningún estándar para diseñar nuestras interacciones con estos sistemas partiendo del supuesto de que la IA es mala.

Por lo tanto, debemos pensar en cómo diseñamos nuestros sistemas para que, si hay intenciones maliciosas, podamos determinar qué hacer desde el lado humano.

Los tecnólogos no están formados para ser científicos sociales o historiadores. Estamos en este campo porque nos encanta y, por lo general, tenemos una actitud positiva hacia la tecnología porque es nuestro campo.

Ese es un problema: no somos buenos para construir puentes con otros que puedan traducir lo que vemos como positivo y lo que sabemos que también son algunos de los aspectos negativos.

Hay mucho margen de mejora para garantizar que las personas no solo comprendan la tecnología y las oportunidades que ofrece, sino también los riesgos que genera.

Con nuevas regulaciones, sistemas más precisos, más honestidad sobre si una respuesta es una suposición y una mayor diligencia por parte de los usuarios, esto puede lograrse.


SOBRE EL AUTOR

Ayanna Howard (@robotsmarts) es decana de la Facultad de Ingeniería de la Universidad Estatal de Ohio.