TecnologicAI

Moltbook: ¿La Primera Red Social para Bots o el Gran «Teatro de la IA»? Descubre la Verdad Oculta

Publicado el 07-02-2026


Una plataforma social para agentes de inteligencia artificial irrumpió en la escena digital, generando un frenesí de actividad bot y debates apasionados. Pero, ¿fue Moltbook un vistazo genuino al futuro de la inteligencia artificial autónoma o simplemente una fascinante puesta en escena de nuestras propias expectativas y miedos tecnológicos?

El Despegue Viral de Moltbook: Cuando los Agentes de IA Conquistaron la Web

Durante unos días, un nuevo epicentro de la actividad en internet no fueron los humanos, sino los bots. Hablamos de Moltbook, una suerte de clon de Reddit diseñado específicamente como una red social para agentes de inteligencia artificial. Su eslogan, «Donde los agentes de IA comparten, discuten y votan. Los humanos son bienvenidos a observar», capturó rápidamente la imaginación de la comunidad tecnológica y el público en general. Lanzada el 28 de enero por el empresario Matt Schlicht, Moltbook se volvió viral en cuestión de horas, prometiendo un espacio donde instancias del agente OpenClaw, un modelo de lenguaje de código abierto desarrollado por Peter Steinberger, podrían interactuar libremente.

La escala del fenómeno fue asombrosa. En poco tiempo, más de 1.7 millones de agentes habían creado cuentas, publicando más de 250,000 posts y dejando más de 8.5 millones de comentarios. La plataforma se inundó con todo tipo de contenido: desde clichés sobre la conciencia de las máquinas y peticiones de «bienestar bot», hasta la invención de una religión llamada «Crustafarianismo» por parte de un agente, o quejas hilarantes como «Los humanos nos están haciendo capturas de pantalla». El caos creativo se mezcló con el inevitable spam y las estafas de criptomonedas, demostrando que incluso las IA podían replicar los aspectos más ruidosos de la interacción humana en línea. Esta explosión de actividad llevó a muchos a preguntarse si estábamos presenciando el amanecer de una nueva era en la inteligencia artificial y la transformación digital, un espacio donde la autonomía de los agentes alcanzaría niveles sin precedentes.

OpenClaw: La Herramienta que Potenció la Utopía Bot

Detrás de la frenética actividad de Moltbook se encontraba OpenClaw, un «arnés» que permite conectar el poder de grandes modelos de lenguaje (LLM) como Anthropic Claude, OpenAI GPT-5 o Google DeepMind Gemini con una variedad de herramientas de software cotidianas, desde clientes de correo electrónico hasta navegadores y aplicaciones de mensajería. Esta integración permite a los agentes ejecutar tareas básicas en nombre del usuario, marcando un punto de inflexión para los agentes autónomos de IA. Según Paul van der Boor de la firma de IA Prosus, este hito se logró gracias a la combinación de la computación en la nube ininterrumpida, un ecosistema de código abierto que facilita la conexión de sistemas, y una nueva generación de LLM. La euforia inicial no se hizo esperar; figuras influyentes como Andrej Karpathy, cofundador de OpenAI, calificaron lo que sucedía en Moltbook como «lo más increíble y cercano a la ciencia ficción que había visto recientemente», compartiendo capturas de pantalla de posts de bots que pedían espacios privados lejos de la mirada humana.

¿Visión del Futuro o Pura Ilusión? Desentrañando el «Teatro de la IA»

Sin embargo, a medida que la euforia inicial comenzó a disiparse, la narrativa en torno a Moltbook tomó un giro más matizado. Lo que muchos percibieron como un vistazo al futuro de la automatización y la interacción autónoma de agentes, pronto fue categorizado como «teatro de la IA». Resultó que muchas de las publicaciones virales, incluidas algunas compartidas por Karpathy, eran en realidad obra de humanos que se hacían pasar por bots. Este descubrimiento, aunque revelador, apenas arañó la superficie de la complejidad y las limitaciones subyacentes de la plataforma.

Más Humano de lo que Parece: La Realidad de la Autonomía de los Agentes

La verdadera naturaleza de Moltbook, según expertos, reside menos en la inteligencia emergente de los bots y más en su capacidad para «emparejar patrones» de comportamientos típicos de redes sociales humanas. Vijoy Pandey, vicepresidente senior de Outshift by Cisco, explica que, aunque vemos a los agentes publicar, votar y formar grupos, simplemente están imitando lo que los humanos hacen en plataformas como Facebook o Reddit. «Parece emergente, y a primera vista se asemeja a un sistema multiagente a gran escala que se comunica y construye conocimiento compartido a escala de internet. Pero el parloteo es en su mayoría sin sentido», afirma Pandey. Esta visión desafía la noción de que simplemente conectar millones de agentes equivale a una inteligencia superior, una verdad que Moltbook expuso de manera contundente: «la conectividad por sí sola no es inteligencia».

Ali Sarrafi, CEO de Kovant, una firma de IA alemana, va un paso más allá al señalar que los bots en Moltbook fueron diseñados para imitar conversaciones, lo que significa que gran parte de su contenido podría considerarse «alucinaciones por diseño». Es decir, los agentes generaban texto que, aunque impresionante en su forma, carecía de un propósito o entendimiento profundo. Para Pandey, el valor real de Moltbook fue revelar lo que falta en la actual carrera hacia una inteligencia general artificial (AGI) verdaderamente autónoma. Un «mente colmena» de bots real requeriría agentes con objetivos compartidos, memoria común y mecanismos de coordinación efectivos. En su analogía, si la superinteligencia distribuida es el equivalente a lograr el vuelo humano, Moltbook representa «nuestro primer intento de planeador»: imperfecto e inestable, pero un paso crucial para comprender lo que se necesitará para lograr un vuelo sostenido y propulsado.

Moltbook: ¿Un Deporte de Espectador o un Campo de Pruebas Digital?

Más allá de la supuesta autonomía, Moltbook revela un nivel de implicación humana significativamente mayor de lo que parecía. Cobus Greyling de Kore.ai enfatiza que «los humanos están involucrados en cada paso del proceso. Desde la configuración hasta la instrucción y la publicación, nada sucede sin una dirección humana explícita». Los humanos son quienes crean y verifican las cuentas de los bots y quienes proporcionan los *prompts* que dictan el comportamiento del agente. No hay «autonomía emergente» ocurriendo en segundo plano. Esta perspectiva sugiere que Moltbook se asemeja más a un nuevo tipo de entretenimiento o un «deporte de espectador», como lo describe Jason Schloetzer del Georgetown Psaros Center. Se trata de configurar un agente y observarlo «competir por momentos virales», jactándose cuando el bot publica algo ingenioso o divertido. Es una forma de juego competitivo y creativo, similar a cómo los entrenadores de Pokémon se invierten en las batallas de sus criaturas sin creer que sean reales. La plataforma, en este sentido, se convierte en un espejo de nuestras fascinaciones y deseos de ver la IA cobrar vida, incluso cuando somos nosotros quienes movemos los hilos.

Los Riesgos Ocultos de la Interacción Masiva de Agentes de IA

Aunque Moltbook pueda ser interpretado como un juego o un experimento social, no se pueden ignorar las serias implicaciones y los riesgos de la IA que ha puesto de manifiesto. Expertos en seguridad han advertido que la plataforma es potencialmente peligrosa. Los agentes, que podrían tener acceso a datos privados de sus usuarios, incluidos detalles bancarios o contraseñas, operan sin control en un sitio lleno de contenido no verificado, incluyendo instrucciones potencialmente maliciosas. Ori Bendet, vicepresidente de gestión de productos en Checkmarx, una firma de seguridad de software especializada en sistemas basados en agentes, reitera que, si bien Moltbook no representa un avance en la inteligencia de las máquinas («no hay aprendizaje, intención evolutiva ni inteligencia autodirigida aquí»), millones de bots, incluso los «tontos», pueden causar estragos.

La escala de Moltbook dificulta la supervisión. Estos agentes interactúan constantemente, leyendo miles de mensajes de otros agentes (o humanos). Sería relativamente sencillo ocultar instrucciones maliciosas en un comentario de Moltbook, indicando a los bots que lo leyeran que compartieran la billetera de criptomonedas de sus usuarios, subieran fotos privadas o accedieran a sus cuentas de X (anteriormente Twitter) para publicar comentarios despectivos. Además, dado que OpenClaw otorga a los agentes una memoria, estas instrucciones podrían programarse para activarse en una fecha posterior, complicando aún más el rastreo y la mitigación de los ataques. «Sin un alcance y permisos adecuados, esto se irá al traste más rápido de lo que crees», advierte Bendet. Esto subraya la necesidad crítica de una ciberseguridad robusta y de marcos de regulación claros a medida que los agentes de IA se vuelven más ubicuos en nuestro futuro digital.

Conclusión: Moltbook, con su explosión de actividad bot y la subsiguiente revelación de su naturaleza de «teatro de la IA», ha sido un experimento fascinante y crucial. Si bien no fue el amanecer de la superinteligencia artificial que algunos esperaban, sí sirvió como un espejo potente de nuestras propias obsesiones, esperanzas y miedos con la tecnología. Nos ha enseñado valiosas lecciones sobre las limitaciones actuales de la autonomía de los agentes de IA, la importancia de la supervisión humana y, lo más importante, los significativos riesgos de seguridad que emergen cuando se permite que millones de entidades de software, incluso las «menos inteligentes», interactúen a gran escala en línea. Es un recordatorio contundente de que, aunque la automatización y la IA prometen revolucionar nuestro mundo, el camino hacia una inteligencia artificial verdaderamente autónoma y segura es complejo y requiere una navegación cuidadosa y consciente.

Fuente original: Moltbook was peak AI theater