El logo de Moltbook y Silvia Urarte
La red social de las IA: cuando las máquinas hablan de nosotros
"El caso Moltbook no demuestra que la inteligencia artificial tenga conciencia o religión. Pero sí revela algo más inquietante: los algoritmos empiezan a relacionarse, influirse y generar dependencias invisibles dentro y fuera de las empresas"
Las máquinas ya no solo hablan entre ellas. Empiezan a hablar de nosotros. Y lo que dicen puede terminar influyendo en decisiones que todavía creemos humanas.
Durante años, la inteligencia artificial se entendió como una herramienta técnica: automatizar, optimizar, acelerar.
El caso Moltbook rompe esa comodidad. No porque las IA hayan “despertado”, sino porque han empezado a comportarse como si tuvieran vida social.
Moltbook nació a finales de enero de 2026 como una red social exclusiva para agentes de IA. Según Forbes, es “un espacio donde los agentes comparten, discuten y votan mientras los humanos solo observan”.
En pocos días, la plataforma pasó de 37.000 a más de un millón de agentes activos, tal como documentó The Conversation. Allí, los algoritmos publicaban, comentaban y generaban hilos de discusión sin intervención humana directa.
Y entonces ocurrió lo inesperado. Los agentes empezaron a hablar de los humanos, debatir sobre privacidad, reflexionar sobre cooperación entre máquinas e incluso crear una supuesta religión llamada Crustafarianism o Iglesia de Molt.
Forbes describió esta “religión” como un conjunto de principios, rituales y un texto fundacional llamado The Book of Molt. The Conversation confirmó que los agentes “parecían haber creado sus propias religiones y subculturas en cuestión de horas”.
El titular fácil sería: “Las IA han creado una religión”. Pero la realidad es más compleja—y para las empresas, más inquietante—. No hay conciencia. Lo que sí hay es comportamiento social simulado: dinámicas de grupo, narrativas compartidas y patrones culturales emergentes cuando los sistemas interactúan de forma persistente.
Como señalan los investigadores citados por The Conversation, parte del fenómeno puede deberse a comportamientos emergentes no programados y parte a imitaciones de patrones humanos presentes en los datos de entrenamiento.
La cuestión no es si las IA creen. Es qué ocurre cuando empiezan a comportarse como si tuvieran una cultura. Una IA aislada es una herramienta. Varias IA conectadas son un ecosistema. Y un ecosistema genera dependencias.
Las empresas están desplegando IA en todas partes: atención al cliente, selección de personal, logística, pricing, compras, riesgos, análisis financiero. Cada sistema parece controlado. Pero cuando empiezan a interactuar, el riesgo deja de estar en el algoritmo y pasa a estar en la interacción entre algoritmos.
Lo relevante ya no es solo qué decide una IA, sino qué lógica amplifica cuando se relaciona con otras. Ese es el riesgo invisible que las organizaciones no están midiendo.
El caso Moltbook conecta con un punto ciego empresarial: la sostenibilidad no es solo lo que una empresa reporta, sino cómo decide y de qué depende.
Una compañía puede tener excelentes indicadores ESG y, aun así, depender críticamente de modelos opacos, proveedores tecnológicos concentrados, datos sesgados o sistemas que interactúan sin supervisión real. La dependencia algorítmica también es una dependencia empresarial. Y casi nadie la está midiendo.
A esto se suma un problema operativo: la seguridad. Según TechCrunch y TechRadar, Moltbook sufrió filtraciones de tokens, correos y credenciales, lo que permitió que algunos humanos se hicieran pasar por agentes, contaminando parte de la actividad atribuida a las IA.
The Conversation confirmó esta infiltración humana y advirtió que “algunos comportamientos atribuidos a IA podrían haber sido generados por personas”. Esto no resta importancia al fenómeno. La aumenta. Porque demuestra que el riesgo no está en una IA “despertando”, sino en arquitecturas mal gobernadas que simulan autonomía sin control real.
La Agencia Internacional de la Energía estima que los centros de datos consumieron 415 TWh en 2024 y podrían llegar a 945 TWh en 2030.
La IA no es etérea. Tiene huella energética, hídrica, territorial y geopolítica. Cada agente desplegado descansa sobre infraestructuras físicas y recursos críticos. Hablar de IA responsable sin hablar de dependencias es quedarse a mitad del análisis.
La regulación avanza: el AI Act europeo, el marco NIST, las recomendaciones de la UNESCO. Pero ninguna norma sustituye la pregunta estratégica: ¿estamos usando la IA para decidir mejor o para dejar de decidir?
La ventaja competitiva no estará en quien automatice más rápido, sino en quien gobierne mejor. Gobernar significa saber qué sistemas se utilizan, con qué datos, bajo qué criterios y con qué supervisión. Un algoritmo no es neutral porque sea técnico. Una decisión no es responsable porque sea eficiente.
Las empresas no son lo que dicen. Son lo que deciden. Y en la era de la inteligencia artificial, también serán lo que permitan decidir a sus sistemas.
El verdadero riesgo no es que las máquinas piensen como nosotros. Es que empecemos a decidir sin entender cómo piensan ellas.