Ilya Sutskever, cofundador de OpenAI, lanza una IA super segura como protesta
Ilya Sutskever, fundador de OpenAI, creo Safe Superintelligence Inc., una empresa que promete entregar IA realmente segura. Entérate de su propuesta.
Ilya Sutskever, uno de los fundadores de OpenAI y que ya no forma parte de la empresa, dijo que está iniciando una empresa de Inteligencia Artificial (IA) centrada en la seguridad.
Con el objetivo de ofrecer tecnología realmente segura, el científico creó Safe Superintelligence Inc. con dos cofundadores. Este equipo pretende desarrollar una superinteligencia que no ponga en riesgo a la humanidad.
La compañía anunció su creación a través de un comunicado que publicó a través de X y comentó que por la naturaleza de su enfoque, temas como los gastos generales de gestión o los ciclos de los productos no los distraerán.
“Nuestro modelo de negocio significa que la seguridad y el progreso están aislados de las presiones comerciales a corto plazo”.
Esta visión parecería completamente contraria a la que se está llevando a cabo OpenAI, que en las últimas semana sorprendió al mundo con GPT-4o y GPT-5.
Superintelligence is within reach.
— SSI Inc. (@ssi) June 19, 2024
Building safe superintelligence (SSI) is the most important technical problem of our time.
We’ve started the world’s first straight-shot SSI lab, with one goal and one product: a safe superintelligence.
It’s called Safe Superintelligence…
GPT-5: Descubre las 4 promesas hechas por Sam Altman sobre su nueva IA
Así es como Ilya Sutskever abandonó OpenAI
En mayo de 2024, Ilya Sutskever sorprendió a los internautas anunciando el fin de su colaboración con OpenAI, la compañía que construyó en conjunto con Sam Altman. Esto después de 10 años de liderar la parte científica del preoyecto.
El experto en IA dio un cálido mensaje después de tomar esta decisión, en el que recalcó que esperaba que bajo el mando de Mria Murati, la empresa dedicara sus esfuerzos a crear tecnología segura y beneficiosa. Sin embargo, su salida fue todo menos pacífica.
After almost a decade, I have made the decision to leave OpenAI. The company’s trajectory has been nothing short of miraculous, and I’m confident that OpenAI will build AGI that is both safe and beneficial under the leadership of @sama, @gdb, @miramurati and now, under the…
— Ilya Sutskever (@ilyasut) May 14, 2024
La crisis interna que marcó a la empresa
En noviembre de 2023, OpenAI vivió una de sus mayores crisis cuando su Consejo destituyó a su CEO. Los directivos e inversionistas mencionaron que tenían serias preocupaciones sobre la forma en la que lideraba la empresa.
“La junta ya no confía en su capacidad para seguir liderando OpenAI”, mencionó la junta directiva a través de un comunicado.
El papel de Ilya Sutskever, fue fundamental para concretar el despido de Sam Altman. Incluso, mencionó a través de X que lamentó profundamente su papel en esta acción.
I deeply regret my participation in the board’s actions. I never intended to harm OpenAI. I love everything we’ve built together and I will do everything I can to reunite the company.
— Ilya Sutskever (@ilyasut) November 20, 2023
Elon Musk no tardó en cuestionarle la razón por la que participó en este desastre y agregó que si OpenAI estaba desarrollando proyectos que ponen en peligro a la humanidad, el mundo necesita saberlo.
OpenAI lanza GPT-4o gratis: Brinda información en tiempo real a través de imágenes, texto y audio
Los excolaboradores de Sam Altman deben guardar silencio
La periodista Kelsey Piper afirmó que en mayo de 2024 tuvo acceso al acuerdo de baja que firman las personas antes de abandonar OpenAI. Lo calificó como un documento extremadamente restrictivo que contiene disposiciones de no divulgación y no menosprecio a las que están sujetos los ex colaboradores.
“Les prohíbe, durante el resto de sus vidas, criticar a su antiguo empleador. Incluso reconocer que existe la un acuerdo de confidencialidad”.
Si un empleado saliente se niega a firmar el documento, o lo viola, puede perder todo el capital adquirido que obtuvo durante su tiempo en la empresa. No obstante, Daniel Kokotajlo, ex investigador de gobernanza, explicó que abandonó OpenAI debido a la pérdida de confianza.
Para hacer esto, tuvo que renunciar a todas las ganancias que obtuvo cuando colaboró con la compañía. Así se pudo marchar sin firmar el temido contrato.
“Básicamente quería conservar mi capacidad de criticar a la empresa en el futuro. No estoy seguro de lo que quiero decir todavía y estoy un poco asustado de la atención de los medios”.
El abandono del encargado de vigilar la seguridad del desarrollo de las herramientas IA creadas por Sam Altman y de su ex fundador hacen que las personas se pregunten si OpenAI realmente es una empresa segura.
Por esto, la nueva compañía de Ilya Sutskever tiene la intención de impulsar el uso seguro de la nueva tecnología.