El director ejecutivo de OpenAI habló sobre el boom del popular ChatGPT, los problemas que enfrenta el mundo con la Inteligencia Artificial, cómo usarla para crear un futuro mejor y dio un valioso consejo para los estudiantes del MIT en compañía de su presidenta.
¿Cómo está evolucionando el campo de la Inteligencia Artificial (IA) y qué significa para el futuro del trabajo, la educación y la humanidad? Estas fueron algunas de las preguntas que se hicieron (y respondieron) la presidenta del MIT, Sally Kornbluth, y el director ejecutivo de OpenAI, Sam Altman.
El encuentro tuvo lugar a inicios de mayo en el Auditorio Kresge ubicado en el campus del MIT y atrajo la atención de los estudiantes en torno a la IA con la mirada puesta en lo que viene.
A continuación, compartimos algunas de las reflexiones más importantes de la charla, de acuerdo con información de MIT News.
El éxito de los grandes modelos de lenguaje ChatGPT de OpenAI ha ayudado a estimular una ola de inversión e innovación en Inteligencia Artificial, planteó la presidenta del MIT.
ChatGPT-3.5 se convirtió en la aplicación de software de consumo de más rápido crecimiento de la historia después de su lanzamiento a finales de 2022, con cientos de millones de personas utilizando la herramienta.
Desde entonces, OpenAI también ha demostrado productos de generación de imágenes, audio y video basados en IA y se ha asociado con Microsoft.
“Creo que la mayoría de nosotros recordamos la primera vez que vimos ChatGPT y dijimos: ‘¡Dios mío, eso es genial!'”, dijo Kornbluth. “Ahora estamos tratando de descubrir cuál será la próxima generación de todo esto”.
Altman, por su parte, respondió que este boom que vive la humanidad con la IA ha superado sus expectativas en general.
“Creo que es increíble que durante dos semanas todo el mundo estuviera enloquecido por ChatGPT-4, y luego, a la tercera semana, todo el mundo decía: ‘Vamos, ¿dónde está GPT-5?‘”, compartió Altman.
“Creo que eso dice algo legítimamente grandioso sobre las expectativas y el esfuerzo humanos y por qué todos tenemos que [estar trabajando para] mejorar las cosas“.
Al principio de su discusión, Kornbluth y Altman tocaron un tema que es inevitable no hacerlo: los numerosos dilemas éticos que plantea la Inteligencia Artificial.
“Creo que hemos logrado un progreso sorprendentemente bueno en cuanto a cómo alinear un sistema en torno a un conjunto de valores“, dijo Altman.
Y agregó que “por mucho que a la gente le guste decir ‘No puedes usar estas cosas porque están arrojando desechos tóxicos todo el tiempo‘, GPT-4 se comporta de la manera que quieres y podemos lograr que funcione”. Seguir un conjunto determinado de valores, no perfectamente bien, pero mejor de lo que esperaba a estas alturas”.
Altman también destacó que la humanidad aún no se ha logrado poner de acuerdo sobre cómo debería comportarse exactamente un sistema de IA en muchas situaciones, lo que complica los esfuerzos por crear un código de conducta universal.
“¿Cómo decidimos qué valores debe tener un sistema? ¿En qué medida la sociedad define límites versus confiar estas herramientas al usuario? No todo el mundo las usará como nos gusta, pero ese es el caso de las herramientas. Creo que es importante darle a la gente mucho control… pero hay algunas cosas que un sistema simplemente no debería hacer, y tendremos que negociar colectivamente cuáles son”.
Kornbluth estuvo de acuerdo en que será difícil hacer cosas como erradicar los prejuicios en los sistemas de IA.
“Es interesante pensar si podemos o no hacer modelos menos sesgados que nosotros como seres humanos”, dijo.
Sam Altman, ¿quién es el genio detrás de OpenAI y ChatGPT?
La presidenta del MIT también externó sus preocupaciones sobre la privacidad asociadas con las grandes cantidades de datos necesarios para entrenar los grandes modelos lingüísticos actuales.
Por su parte, Altman dijo que la sociedad ha estado lidiando con esas preocupaciones desde el terreno del Internet, pero la Inteligencia Artificial está haciendo que esas consideraciones sean más complejas y de mayor riesgo.
También ve preguntas completamente nuevas que surgen ante la perspectiva de potentes sistemas de IA.
“¿Cómo vamos a navegar las compensaciones entre privacidad, utilidad y seguridad? No sé cuáles serán las respuestas”, expuso el CEO de OpenAI.
Respecto a las preocupaciones sobre la privacidad y el consumo de energía que rodean a la IA, Altman dijo que cree que el progreso en futuras ‘versiones de los modelos de esta tecnología ayudará.
La IA acelera el cambio climático, así es como los desarrolladores lo pueden impedir
Durante la charla con la presidenta del MIT, Altman aseguró que cree que el progreso en la IA hará que valga la pena abordar todos los problemas actuales del campo.
“Si gastáramos el 1 por ciento de la electricidad mundial en entrenar una poderosa IA, y esa IA nos ayudara a descubrir cómo llegar a energía no basada en carbono o mejorar la captura profunda de carbono, eso sería una gran victoria”, detalló el líder.
Antes de concluir el encuentro, Sally Kornbluth le pidió a Altman un consejo para los estudiantes que están pensando en sus carreras e instó a los estudiantes a no limitarse.
“La lección más importante que debes aprender al principio de tu carrera es que puedes resolver cualquier cosa, y nadie tiene todas las respuestas cuando empiezas. Puedes hacer más de lo que piensas, más rápido de lo que piensas”.
Al estar en la mejor universidad del mundo, Sam Altman no perdió la oportunidad de despedirse con un mensaje más amplio sobre cómo mantenerse optimista y trabajar para crear un futuro mejor.
“Espero que el MIT sea diferente a muchos otros campus universitarios. Supongo que lo es. Pero todos deben ser parte de la misión de luchar a favor de esto: Prosperidad, abundancia, una vida mejor para nosotros y para nuestros hijos. Ése es el único camino a seguir”.
Sam Altman no fue el único: Los 10 CEO que fueron despedidos de las empresas que fundaron