Usar ChatGPT es un riesgo, esto dicen sus colaboradores
A través de una carta los ex colaboradores y empleados de OpenAI advirtieron a la humanidad sobre los peligros de usar esta tecnología. Usar ChatGPT puede ser un riesgo.
Algunos colaboradores actuales y ex empleados de OpenAI, empresa creadora de ChatGPT, y Google Deepmind advirtieron que la Inteligencia Artificial (IA) plantea graves riesgos para la humanidad. Esto lo explicaron a través de una carta en la que le pidieron a ambas empresas implementar cambios radicales para garantizar la transparencia.
Los escritores del documento expresaron su preocupación ya que, de acuerdo con su criterio, el desarrollo de la nueva tecnología puede exacerbar la desigualdad , aumentar la desinformación y permitir que los sistemas de IA se vuelvan autónomos y causen muertes significativas.
A pesar de que estos peligros podrían evitarse, también evidenciaron que las corporaciones que controlan el software tienen “fuertes incentivos financieros” para limitar la supervisión.
La falta de regularización por parte de las autoridades hace que la responsabilidad de diseñar sistemas inofensivos recaiga en los colaboradores. Por esto, decidieron hacer un llamado a las empresas para que brinden a los trabajadores protecciones que les permitan plantear inquietudes de forma anónima.
“Las empresas de IA poseen sustancial información que no es pública sobre las capacidades y limitaciones de sus sistemas, así como sus niveles de riesgo. Sin embargo, actualmente sólo tienen obligaciones débiles de compartir parte de esta información con los gobiernos”.
¿Las respuestas de ChatGPT son incorrectas? Un estudio revela que así es, ten cuidado
La empresa creadora de ChatGPT podría estar castigando a los colaboradores disidentes
Daniel Kokotajlo, un ex empleado de OpenAI, mencionó que dejó la startup debido a que no estaba de acuerdo con que la empresa no visibilizara los riesgos que guarda la IA.
“Perdí la esperanza de que actuaran de manera responsable, particularmente en lo que respecta a la inteligencia artificial general”.
Agregó que lamenta que la empresa creadora de ChatGPT y otras empresas hayan aceptado un enfoque en el prefieren lanzar productos a marchas forzada que analizar los riesgos que esto conlleva. Y eso es lo opuesto a lo que se necesita para una tecnología tan poderosa y tan poco comprendida, agregó.
La publicación de esta carta fue precedida por el reciente éxodo de cofundadores y altos ejecutivos de OpenAI y esto ha provocado especulaciones.
De acuerdo R.R. Saum, experto futurista, de cara a estos hechos es importante que los usuarios de ChatGPT y otras herramientas similares se pregunten si se trata simplemente de una rotación rutinaria de liderazgo o un presagio de una agitación más profunda dentro de las filas de los pioneros de la IA.
Estos fueron los colaboradores que fueron despedidos de OpenAI en mayo de 2024:
- Dr. Ilya Sutskever, cofundador y científico jefe de OpenAI
- Jan Leike, codirector del grupo de superalineación
- Evan Morikawa, ingeniero principal
- Diane Yoon, vicepresidenta de personas
- Chris Clark, jefe de iniciativas estratégicas y sin fines de lucro
“Las salidas podrían ser una alarma de incendio o una oportunidad para revitalizarse deshaciéndose de la disidencia”.
No confíes en ChatGPT para hacer la tarea; estos son los 4 errores que te harán reprobar
Sam Altman se prepara para sobrevivir a la era de la IA
Sam Altman mencionó en una entrevista que le proporcionó a el New Yorker en 2016 que se sentía preocupado por el desarrollo de la tecnología. Incluso, recalcó que se preparaba para sobrevivir por si la IA decidía atacar a los humanos.
“Tengo armas, oro, yoduro de potasio, antibióticos, baterías, agua, máscaras antigás de las Fuerzas de Defensa de Israel y un gran terreno al que puedo volar”, dijo.
Sin embargo, algunos expertos de la industria de la IA dicen que centrar la atención en escenarios apocalípticos puede distraer la atención de lo que verdaderamente importa: ¿qué daños inmediatos está generando el uso y desarrollo de herramientas como ChatGPT?
Rowan Curran, analista de Forrester, reconoció las preocupaciones legítimas en torno a garantizar que los datos de entrenamiento tengan un sesgo mínimo.
“La idea de un ‘apocalipsis de la IA’ como un escenario realista que presenta cualquier tipo de peligro para la humanidad, particularmente en el corto y mediano plazo, es sólo tecno-mitología especulativa”,