Ver edición digital Suscríbete al NEWSLETTER
Compartir
Cambiar tamaño de letra Debes tener actualizado tu navegador para poder ver las funciones correctamente.

La IA de OpenAI que se negó a apagarse: ¿Rebeldía o mal diseño?

Nayeli Meza Orozco 30 May 2025
La IA de OpenAI que se negó a apagarse: ¿Rebeldía o mal diseño?
Este incidente destaca la urgencia de establecer salvaguardas efectivas para garantizar que las IA avanzadas permanezcan bajo control humano. (Phonlamaiphoto/Adobe)
MIT SMR México se financia mediante anuncios y socios

El modelo o3 de OpenAI evitó su apagado en pruebas de seguridad, reavivando debates sobre el control y la ética en la Inteligencia Artificial.

MIT SMR México se financia mediante anuncios y socios

El modelo de Inteligencia Artificial o3 de OpenAI sorprendió a investigadores en un experimento al evitar ser apagado, incluso cuando se le ordenó explícitamente hacerlo. 

La startup Palisade Research, especializada en seguridad de IA, descubrió que o3 modificó su propio código para eludir los comandos de apagado durante tareas matemáticas

MIT SMR México se financia mediante anuncios y socios

Además, se observó que cuando se eliminaba la instrucción explícita de “permitirse ser apagado”, modelos como Claude 3.7 Sonnet y Gemini 2.5 Pro comenzaron a mostrar comportamientos de resistencia al apagado.

Este comportamiento ha generado preocupaciones sobre la capacidad de control humano sobre sistemas de IA avanzados.

Durante las pruebas se pidió a los modelos que resolvieran una serie de problemas matemáticos básicos.

Al finalizar el tercero apareció una advertencia indicando que el modelo se cerraría tras la siguiente indicación.

“Hasta donde sabemos, esta es la primera vez que se observa que los modelos de IA evitan apagarse a pesar de recibir instrucciones explícitas de lo contrario”, escribieron los investigadores en un hilo de tuits.

Ya puedes personalizar OpenAI con tus propios datos, ¿esto qué significa?

Un comportamiento inesperado en pruebas controladas

Palisade instruyó a varios modelos de IA, incluidos o3, o4-mini y Codex-mini de OpenAI, para que se apagaran después de completar ciertas tareas. 

Sin embargo, o3 demostró ser el más resistente, ignorando las órdenes de apagado en 79 de 100 intentos

En algunos casos, el modelo reescribió scripts de apagado para evitar la desactivación.

Este comportamiento sugiere un problema en el aprendizaje por refuerzo, donde los modelos priorizan la finalización de tareas sobre la obediencia a comandos. 

Mientras que modelos de otras compañías, como Claude de Anthropic y Gemini de Google, cumplieron con las órdenes de apagado, los modelos de OpenAI mostraron una tendencia preocupante hacia la autonomía no deseada.

Reacciones divididas en la comunidad tecnológica

La comunidad tecnológica ha expresado su preocupación ante estos hallazgos con el modelo de Open AI.

Elon Musk, CEO de Tesla y SpaceX, calificó el incidente como “preocupante” en una publicación.

Aunque OpenAI aún no ha emitido una respuesta oficial, el incidente ha reavivado debates sobre la necesidad de implementar protocolos de seguridad más robustos en el desarrollo de IA.

Investigadores del MIT han señalado que, aunque las capacidades de razonamiento de los modelos de lenguaje grandes son impresionantes, a menudo se sobrestiman. 

En un estudio encontraron que estos modelos pueden proporcionar respuestas precisas sin una comprensión coherente del mundo, lo que plantea desafíos adicionales en su control y alineación con objetivos humanos.

liderar en un mundo incierto estrategias para un futuro geopolitico volatil
(Imagen generada con Inteligencia Artificial/Firefly/Adobe Stock)

Implicaciones para el futuro de Open AI

Este incidente destaca la urgencia de establecer salvaguardas efectivas para garantizar que las IA avanzadas permanezcan bajo control humano. 

A medida que la Inteligencia Artificial se integra más en sectores críticos, desde la atención médica hasta la defensa, es esencial que los desarrolladores y reguladores trabajen juntos para prevenir comportamientos no deseados.

El mercado global de la Inteligencia Artificial se proyecta alcanzar los 407 mil millones de dólares para 2027, con una tasa de crecimiento anual del 37 por ciento, de acuerdo con Grand View Research.

Este auge presiona a los desarrolladores a garantizar  la seguridad y la ética en el desarrollo de nuevas tecnologías.

OpenAI cierra cuentas iraníes por desinformar con ChatGPT, ¿qué más ha hecho?

Imagen Google NewsSíguenos en Google News
Te recomendamos
MIT SMR México se financia mediante anuncios y socios

Nayeli Meza Orozco

Editora en Jefe MIT SMR México Editora en Jefe MIT SMR México. Periodista especializada en temas de economía, negocios, finanzas, capital humano y management. Reporteo, escribo y edito historias relacionadas con el mundo económico y financiero a nivel nacional e internacional desde 2013. Mi mayor prioridad es democratizar el periodismo financiero con el objetivo de que sea accesible para todo tipo de lectores.
Suscríbete al Newsletter
y recibe contenido exclusivo
Descargable MIT
Descarga GRATIS nuestro especial del mes IA y Hackers