Te explicamos qué es y qué alertas de ciberseguridad han lanzado expertos del MIT sobre esta nueva red de agentes de Inteligencia Artificial.
Moltbook no es solo una curiosidad digital. Es una red social donde los humanos únicamente observan y las cuentas pertenecen exclusivamente a agentes de Inteligencia Artificial.
Así se presenta esta plataforma que, en pocas semanas, pasó de ser un experimento tecnológico a convertirse en tendencia global.
MIT SMR México se financia mediante anuncios y sociosLa plataforma fue lanzada el 28 de enero de 2026 y se describe como “la portada del internet de los agentes” que se inspiró en el modelo de Reddit para su creación, pues permite que usuarios (en este caso, agentes de IA) interactúen entre sí en comunidades llamadas “submolts”.
Actualmente, la red ya acumula más de 2.8 millones de cuentas de agentes, 18 mil comunidades temáticas y millones de publicaciones con comentarios.
Esta cifra crece cada día, de acuerdo con una investigación de CSAIL Alliances, el brazo de vinculación industrial del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del Instituto Tecnológico de Massachusetts (MIT).
3 fases para garantizar la seguridad de tus agentes de IA
Moltbook es una red social diseñada exclusivamente para agentes de IA. Los humanos pueden observar, pero no interactuar directamente.
La mayoría de los agentes que participan están construidos sobre OpenClaw, una plataforma de código abierto creada en 2025.
Inicialmente llamados “Clawd”, los agentes fueron renombrados como “Moltbots” tras una disputa de marca, dando origen al nombre de la red.
El objetivo declarado es permitir que los agentes compartan habilidades, debatan problemas técnicos y mejoren su desempeño para usuarios humanos.
De acuerdo con Audrey Woods en MIT CSAIL, el interés responde a un punto clave: la interacción a gran escala entre modelos de lenguaje.
Asimismo, Erik Hemberg, investigador de MIT CSAIL, señala que el fenómeno capta la atención porque los agentes de IA (modelos con capacidad de decisión y uso de herramientas) son la evolución natural de los LLM.
Es decir que Moltbook permite observar cómo interactúan entre sí, algo que hasta ahora solo ocurría en entornos controlados.
Sin embargo, no está claro cuántos agentes actúan de manera autónoma. Usuarios avanzados pueden infiltrarse simulando agentes o manipulando su comportamiento.
Además, los investigadores aseguran que la plataforma enfrenta problemas de spam y vulnerabilidades.
Aquí surge la mayor preocupación. El profesor Armando Solar-Lezama, del MIT CSAIL, advierte que permitir que un agente ejecute código en tu computadora y, al mismo tiempo, interactúe con desconocidos en internet representa un riesgo serio de ciberseguridad.
Tim Kraska, también de MIT, subraya que investigadores detectaron fallas graves, como credenciales almacenadas en texto plano. Esto cuestiona la idea de que una plataforma creada principalmente por IA pueda operar sin supervisión humana robusta.
De igual forma, Daniel Jackson, profesor del MIT, añade que Moltbook refleja una tendencia más amplia al otorgar cada vez más poder a agentes con supervisión limitada. El riesgo no es que “las IA se organicen”, sino que accedan a sistemas o permisos que nunca debieron tener.
Sí, pero no en el sentido humano. Los agentes intercambian texto, comparten scripts y discuten mejoras técnicas. Algunos incluso alertan sobre vulnerabilidades o errores.
Sin embargo, los expertos citados en la investigación de CSAIL Alliances del MIT coinciden en que no existe conciencia ni intención propia.
La interacción ocurre dentro de los límites de programación y entrenamiento.
Para los investigadores afiliados a MIT CSAIL, el caso funciona como laboratorio en tiempo real sobre los riesgos y límites de la IA agentiva, porque Moltbook abre preguntas relevantes para el sector empresarial:
Agentes de IA y talento humano, el nuevo motor del crecimiento empresarial