Liderazgo Capital Humano Actualidad

OpenAI cierra cuentas iraníes por desinformar con ChatGPT, ¿qué más ha hecho?

A pesar de las críticas que recibe Sam Altman, el creador de ChatGPT intenta acabar con las campañas de desinformación desde su trinchera. Estas son algunas de las acciones que ha realizado.

Elizabeth Vargas 21 Oct 2024

OpenAI informó que eliminó cuentas vinculadas a una operación de influencia iraní que utilizaba ChatGPT para generar contenido malintencionado centrado en múltiples temas. Por ejemplo, la campaña presidencial estadounidense.

La desactivación se hizo con el objetivo de prevenir el abuso y mejorar la transparencia en torno al contenido generado por Inteligencia Artificial (IA).

Publicidad
Publicidad

“Esta semana identificamos y eliminamos un grupo de cuentas de ChatGPT que generaban contenido para una operación encubierta de influencia iraní identificada como Storm-2035“. explicó la empresa.

OpenAI prohibió que las cuentas vinculadas a la operación utilicen sus servicios. Storm-2035 usó el servicio de ChatGPT para generar contenido centrado en una serie de temas que luego se compartieron a través de cuentas de redes sociales y sitios web. 

Los textos generados incluyen comentarios sobre candidatos de ambos partidos en las elecciones presidenciales de Estados Unidos.

GPT-5, ¿qué puedes esperar de la actualización del motor detrás de ChatGPT?

Utilizar IA para la desinformación, un fenómeno que no es nuevo

De acuerdo con Microsoft, este tipo de ciberamenazas que provienen de grupos de hackers del medio oriente no son nuevos. Las operaciones de influencia habilitadas por ciberataques de Irán han sido una característica constante de al menos los últimos tres ciclos electorales de Estados Unidos.

“Las operaciones de Irán han sido notables y emplean ciberataques más orientados a la conducta electoral que a influir en los votantes. La actividad reciente sugiere que el régimen iraní, junto con el Kremlin, podrían estar igualmente involucrados en las elecciones de 2024”.

En específico, el grupo Storm-2035 está compuesto por cuatro sitios web que se hacen pasar por medios de comunicación. Esto les permite captar activamente a grupos de votantes estadounidenses situados en extremos opuestos del espectro político con mensajes polarizadores.

Este grupo forma parte de una campaña más amplia que lleva operando al menos desde 2020. Su operación incluye más de una docena de sitios de noticias encubiertos dirigidos a audiencias de habla francesa, española, árabe e inglesa.

(Iliya Mitskavets/Adobe Stock)

Usar ChatGPT es un riesgo, al menos esto es lo que dicen sus colaboradores

Así es como ChatGPT lucha contra las desinformación

No es la primera vez que OpenAI realiza acciones similares. En mayo de 2024, prohibió una campaña de influencia política originada en Israel, según uno de sus informes.

“Prohibimos un grupo de cuentas operadas desde Israel que se estaban utilizando para generar y editar contenido para una operación de influencia que abarcaba múltiples plataformas”.

La operación fue organizada por una empresa llamada STOIC implicó la creación y difusión de contenido anti-Hamás y pro-Israel.

También atacó a la agencia de la ONU para Palestina (UNRWA) y a manifestantes a favor del pueblo palestino en universidades estadounidenses.

La empresa reveló que la red utilizó sus modelos de IA para generar artículos y comentarios. Estos posteriormente fueron publicados en plataformas como Instagram, Facebook y X.

“Algunos de los contenidos creados por esta red fueron publicados en las redes sociales en respuesta a importantes figuras occidentales”.

Estas son otras operaciones que ha desactivado la empresa de Sam Altman:

Bad Grammar

Esta organización rusa operaba principalmente en Telegram y tenía como objetivo a Ucrania, Moldavia, los Estados bálticos y los Estados Unidos. Las personas detrás de Bad Grammar usaron ChatGPT para depurar el código y ejecutar un bot para crear comentarios políticos breves en ruso e inglés que luego se publicaron.  

Doppelganger 

Las personas que actuaban en nombre de Doppelganger utilizaron la plataforma para generar comentarios en diversos idiomas que se publicaron en X y 9GAG.

Los hackers tradujeron y editaron artículos en inglés y francés que se publicaron en sitios web vinculados a esta operación. Así, generaron titulares engañosos. 

Spamouflageque

Spamouflageque utilizó la IA para investigar la actividad pública en las redes sociales y generar textos que luego se publicaron en plataformas como X, Medium y Blogspot.

Unión Internacional de Medios Virtuales

La operación llamada Unión Internacional de Medios Virtuales utilizó ChatGPT para generar y traducir artículos y titulares de sitios web que brindaron información falsa.