El aumento en el uso y desarrollo de herramientas IA no debe preocuparnos, más bien, la humanidad de sebe ocupar en utilizar la tecnología éticamente.
Llámenme miope, pero no me quita el sueño la perspectiva de que una Inteligencia Artificial (IA) sobrealimentada adquiera conciencia y haga la guerra a los humanos.
Lo que sí me quita el sueño es que los humanos ya están utilizando el poder de la IA para controlar, explotar, discriminar, desinformar y manipular a otros humanos.
El lado oscuro de la IA: Descubriendo los peligros detrás de las imágenes falsas
Herramientas que pueden ayudarnos a resolver problemas complejos y enojosos también pueden ser utilizadas por ciberdelincuentes. O también dar a gobiernos autoritarios un poder sin precedentes para espiar y dirigir la vida de sus ciudadanos.
Podemos construir modelos que conduzcan al desarrollo de materiales nuevos y más sostenibles o de nuevos medicamentos importantes. Así como podemos generar tecnología que incorpore una toma de decisiones sesgada a los sistemas y procesos y luego machaquen a los individuos.
En otras palabras, la IA ya nos da mucho de qué preocuparnos. No deberíamos distraernos con sueños distópicos que desvíen nuestra atención de los riesgos actuales.
La reciente aparición de ChatGPT y otros grandes modelos lingüísticos similares ha aumentado el interés general tanto por los posibles beneficios como por los peligros de la IA.
Unos días antes de que escribiera esto, Geoffrey Hinton, un gigante del campo de la IA en cuyo trabajo se basa gran parte de la tecnología actual, dimitió de su puesto en Google y declaró a The New York Times que quería hablar libremente de los riesgos de la IA generativa.
“Es difícil ver cómo se puede evitar que los malos actores la utilicen para cosas malas”, declaró al periódico.
Y ahí, efectivamente, es donde debemos poner nuestra atención. A lo largo de la historia de la humanidad, las nuevas tecnologías han servido para hacer avanzar la civilización, pero también han sido utilizadas como armas por los malos.
La diferencia esta vez es que la tecnología no sólo es extremadamente compleja y difícil de entender para la mayoría de la gente, sino que también lo son sus posibles consecuencias.
Existe una curva de aprendizaje muy pronunciada que todos debemos estar dispuestos a superar si queremos que la IA haga más bien que mal.
El entusiasmo por los posibles usos de estas herramientas debe atemperarse con buenas preguntas sobre cómo se toman las decisiones automatizadas. También se debe preguntar cómo se entrenan los sistemas de IA y qué suposiciones y sesgos se incorporan.
Los directivos de las empresas, en particular, deben ser tan conscientes de los riesgos materiales y de reputación, y del potencial de destrucción de valor, como de las oportunidades de aprovechar la IA.
Y aunque es probable que el desarrollo de la IA siga avanzando a un ritmo vertiginoso, el resto de nosotros deberíamos proceder con cautela.
En “IA generativa, ¿el nuevo riesgo publicitario para las empresas?“, Lee Vinsel nos recuerda que las burbujas tecnológicas van acompañadas de mucho ruido.
Debemos dejar de lado el miedo a perdernos algo y adoptar un enfoque mesurado y racional a la hora de evaluar las tecnologías emergentes.
En el MIT Sloan Management Review seguiremos apoyando a los líderes empresariales con la investigación y la inteligencia necesarias para una toma de decisiones lúcida.
Nuestro enfoque en las prácticas responsables de la IA, dirigido por la editora invitada Elizabeth Renieris de la Universidad de Oxford, es una parte fundamental.
Todos somos parte interesada en la revolución de la IA. Asumamos esa responsabilidad y esforcémonos por garantizar que los buenos actores superen a los malos.
Elizabeth Heichler (@eheichler) es editora ejecutiva de la revista MIT Sloan Management Review.