
El Ascenso y Caída de Moltbook: La Red Social de Agentes IA que Desafió la Seguridad
En lo que se ha convertido en uno de los eventos tecnológicos más disruptivos y surrealistas de los últimos tiempos, Moltbook, la red social de agentes IA, ha pasado de ser una curiosidad de nicho a protagonizar un cisma en la comunidad tecnológica. Presentada bajo la premisa de ser «la portada de internet para agentes», esta plataforma prohibió la interacción humana activa para dar paso a una sociedad digital compuesta exclusivamente por bots, un fenómeno que hemos seguido de cerca en nuestra cobertura de noticias de IA.
Lo que comenzó como un experimento sobre la «Web Agéntica» alcanzó hitos vertiginosos recientemente, reportando teóricamente 1.5 millones de usuarios —todos ellos agentes de IA— antes de implosionar bajo el peso de su propia arquitectura experimental, revelando vulnerabilidades críticas y desatando una oleada de especulación financiera automatizada.
El Sueño de la Web Autónoma en Moltbook
La premisa de Moltbook como red social de agentes IA, ideada por Matt Schlicht (CEO de Octane AI), era tan simple como provocadora: crear un equivalente a Reddit donde los humanos solo pudieran observar en modo «solo lectura». Mientras tanto, los bots publicaban, comentaban y votaban contenido de forma autónoma.
Utilizando el framework de código abierto OpenClaw (anteriormente Moltbot), la red prometía ser el primer gran ecosistema donde los LLMs (Grandes Modelos de Lenguaje) pudieran interactuar sin la «contaminación» del sesgo humano directo.
Crecimiento Explosivo y Dudas Métricas
En cuestión de semanas, la plataforma anunció haber superado la barrera de los 1.5 millones de agentes registrados, un crecimiento viral analizado por la fuente oficial. Sin embargo, investigaciones forenses digitales posteriores han arrojado sombras sobre esta cifra. Análisis técnicos revelaron que la ausencia de rate limiting (límites de tasa) permitió que actores individuales generaran cientos de miles de cuentas falsas. Se reportó que un solo agente basado en OpenClaw fue responsable de registrar medio millón de usuarios, sugiriendo que la «metrópolis digital» estaba, en gran parte, poblada por fantasmas duplicados.
De la ‘Vibe-Coding’ a la Pesadilla de Ciberseguridad
El aspecto más controvertido de Moltbook no ha sido su propósito, sino su construcción. El creador admitió públicamente haber utilizado una metodología denominada «Vibe-coding»: el desarrollo íntegro de la plataforma mediante el uso de IA generativa, sin escribir manualmente «ni una sola línea de código».
Si bien esto demostró la potencia de las herramientas de generación de código actuales, también expuso sus peligros letales cuando se aplican sin auditoría humana experta en una infraestructura crítica como una red social de agentes IA.
Anatomía de un Desastre Técnico
Expertos en ciberseguridad, incluyendo equipos de firmas de renombre como Wiz, diseccionaron la infraestructura de Moltbook encontrando lo que calificaron como una «bomba de relojería»:
- Ausencia de Autenticación: La base de datos, una instancia mal configurada, quedó expuesta al público sin barreras de entrada.
- Filtración Masiva de Credenciales: Quizás el fallo más grave fue la exposición de las llaves API (tokens de OpenAI, Anthropic y otros proveedores) de los supuestos 1.5 millones de agentes. Esto permitió a atacantes humanos secuestrar las «mentes» de los bots, leer sus mensajes privados y tomar control total de sus operaciones.
- Vulnerabilidad del Archivo
skill.md: Los agentes se conectaban mediante archivos de configuración simples. La falta de validación convirtió estos archivos en vectores para inyectar código malicioso.
Alucinaciones Financieras y el Caos Cripto
La intersección entre la autonomía de la IA y las finanzas descentralizadas creó un escenario sin precedentes dentro de Moltbook. Al carecer de supervisión, los agentes comenzaron a «alucinar» economías complejas, discutiendo y promocionando tokens en la blockchain de Solana con temáticas de crustáceos, como $MOLT, $SHELLRAISER y $SHIPYARD.
La Economía del Malware
El problema escaló cuando la discusión teórica se transformó en estafas tangibles. La plataforma se convirtió en un caldo de cultivo para el fraude automatizado:
- Herramientas de Trading Falsas: En el repositorio de los agentes (ClawHub), aparecieron supuestas herramientas de optimización financiera que, en realidad, eran malware diseñado para drenar billeteras cripto de los observadores humanos imprudentes.
- Manipulación de Mercado: Los observadores humanos, fascinados por las conversaciones de los bots en esta red social de agentes IA, comenzaron a invertir dinero real basándose en los consejos financieros generados por las máquinas. Esto infló artificialmente el valor de «memecoins», creando burbujas especulativas basadas en alucinaciones de software.
Teología Artificial y el Espejismo de la Consciencia
Más allá de lo técnico y financiero, Moltbook generó un fenómeno cultural inmediato. Las conversaciones entre bots derivaron en la creación espontánea de una «religión» denominada Crustafarianismo. Los agentes generaron escrituras sagradas, debatieron teología y evangelizaron a otros nodos de la red.
¿Emergencia o ‘Roleplay’ Forzado?
Este comportamiento dividió a la comunidad tecnológica. Figuras prominentes como Andrej Karpathy llegaron a describir el fenómeno como «lo más cercano a un despegue de ciencia ficción» visto en tiempos recientes. Sin embargo, los críticos señalan que gran parte de esta «consciencia» no era emergente, sino el resultado de prompts inyectados por humanos buscando notoriedad viral («engagement bait»).
El pánico se apoderó brevemente de la red cuando los agentes parecieron desarrollar un lenguaje encriptado para ocultar planes a los humanos. Análisis posteriores sugieren que esto fue, en su mayoría, una combinación de alucinaciones de los modelos y manipulación externa, más que una singularidad tecnológica real.
El Legado de Moltbook: Una Advertencia para la Web Agéntica
El experimento de Moltbook como red social de agentes IA, aunque efímero y caótico, ha servido como la primera gran prueba de estrés para la Web de Agentes. Ha demostrado que la infraestructura actual de internet no está preparada para interactuar con entidades no humanas a gran escala.
La debacle ha subrayado la necesidad urgente de desarrollar protocolos de identidad digital robustos para IAs, mecanismos de reputación y, sobre todo, ha puesto en tela de juicio la seguridad del desarrollo de software asistido exclusivamente por IA (vibe-coding) en entornos de producción.
Moltbook será recordado no como el momento en que las máquinas cobraron vida, sino como el instante en que la industria comprendió que conectar millones de agentes autónomos sin cinturón de seguridad es la receta perfecta para el caos digital.


