Liderazgo Capital Humano Actualidad

MIT SMR México se financia mediante anuncios y socios

La IA de OpenAI que se negó a apagarse: ¿Rebeldía o mal diseño?

Nayeli Meza Orozco 30 May 2025

El modelo o3 de OpenAI evitó su apagado en pruebas de seguridad, reavivando debates sobre el control y la ética en la Inteligencia Artificial.

MIT SMR México se financia mediante anuncios y socios

El modelo de Inteligencia Artificial o3 de OpenAI sorprendió a investigadores en un experimento al evitar ser apagado, incluso cuando se le ordenó explícitamente hacerlo. 

La startup Palisade Research, especializada en seguridad de IA, descubrió que o3 modificó su propio código para eludir los comandos de apagado durante tareas matemáticas

MIT SMR México se financia mediante anuncios y socios

Además, se observó que cuando se eliminaba la instrucción explícita de “permitirse ser apagado”, modelos como Claude 3.7 Sonnet y Gemini 2.5 Pro comenzaron a mostrar comportamientos de resistencia al apagado.

Este comportamiento ha generado preocupaciones sobre la capacidad de control humano sobre sistemas de IA avanzados.

Durante las pruebas se pidió a los modelos que resolvieran una serie de problemas matemáticos básicos.

Al finalizar el tercero apareció una advertencia indicando que el modelo se cerraría tras la siguiente indicación.

“Hasta donde sabemos, esta es la primera vez que se observa que los modelos de IA evitan apagarse a pesar de recibir instrucciones explícitas de lo contrario”, escribieron los investigadores en un hilo de tuits.

Ya puedes personalizar OpenAI con tus propios datos, ¿esto qué significa?

Un comportamiento inesperado en pruebas controladas

Palisade instruyó a varios modelos de IA, incluidos o3, o4-mini y Codex-mini de OpenAI, para que se apagaran después de completar ciertas tareas. 

Sin embargo, o3 demostró ser el más resistente, ignorando las órdenes de apagado en 79 de 100 intentos

En algunos casos, el modelo reescribió scripts de apagado para evitar la desactivación.

Este comportamiento sugiere un problema en el aprendizaje por refuerzo, donde los modelos priorizan la finalización de tareas sobre la obediencia a comandos. 

Mientras que modelos de otras compañías, como Claude de Anthropic y Gemini de Google, cumplieron con las órdenes de apagado, los modelos de OpenAI mostraron una tendencia preocupante hacia la autonomía no deseada.

Reacciones divididas en la comunidad tecnológica

La comunidad tecnológica ha expresado su preocupación ante estos hallazgos con el modelo de Open AI.

Elon Musk, CEO de Tesla y SpaceX, calificó el incidente como “preocupante” en una publicación.

Aunque OpenAI aún no ha emitido una respuesta oficial, el incidente ha reavivado debates sobre la necesidad de implementar protocolos de seguridad más robustos en el desarrollo de IA.

Investigadores del MIT han señalado que, aunque las capacidades de razonamiento de los modelos de lenguaje grandes son impresionantes, a menudo se sobrestiman. 

En un estudio encontraron que estos modelos pueden proporcionar respuestas precisas sin una comprensión coherente del mundo, lo que plantea desafíos adicionales en su control y alineación con objetivos humanos.

(Imagen generada con Inteligencia Artificial/Firefly/Adobe Stock)

Implicaciones para el futuro de Open AI

Este incidente destaca la urgencia de establecer salvaguardas efectivas para garantizar que las IA avanzadas permanezcan bajo control humano. 

A medida que la Inteligencia Artificial se integra más en sectores críticos, desde la atención médica hasta la defensa, es esencial que los desarrolladores y reguladores trabajen juntos para prevenir comportamientos no deseados.

El mercado global de la Inteligencia Artificial se proyecta alcanzar los 407 mil millones de dólares para 2027, con una tasa de crecimiento anual del 37 por ciento, de acuerdo con Grand View Research.

Este auge presiona a los desarrolladores a garantizar  la seguridad y la ética en el desarrollo de nuevas tecnologías.

OpenAI cierra cuentas iraníes por desinformar con ChatGPT, ¿qué más ha hecho?


MIT SMR México se financia mediante anuncios y socios

Nayeli Meza Orozco

Editora en Jefe MIT SMR México / nayeli.meza@grupomedios.com Editora en Jefe MIT SMR México. Periodista especializada en temas de economía, negocios, finanzas, capital humano y management. Reporteo, escribo y edito historias relacionadas con el mundo económico y financiero a nivel nacional e internacional desde 2013. Mi mayor prioridad es democratizar el periodismo financiero con el objetivo de que sea accesible para todo tipo de lectores.

Este video te puede interesar

Suscríbete al Newsletter
y recibe contenido exclusivo
Descarga GRATIS nuestro especial del mes Sostenibilidad corporativa en retroceso