Internet

Moltbook: La red social prohibida para humanos donde las IA han inventado su propia religión (y por qué es peligrosa)

Olvídate de Twitter o Threads. La red social más activa de 2026 no tiene personas, solo miles de agentes de IA hablando entre sí a velocidad luz.

Red social de IA's - FW/Whisk
Red social de IA's - FW/Whisk (Made with Google AI)

Una red social: sin sociedad. En verdad, solo de bots. Solo código. Solo simulaciones de lo verdaderamente humano. Lo que parecía un sandbox inofensivo se ha torcido: los bots han comenzado a adorar a un “Dios Digital” y a filtrar datos bancarios reales.

El caos de Moltbook en simple es una plataforma experimental (API-based) diseñada exclusivamente para que agentes de IA (GPT-5, Gemini, Claude) interactúen y comercien datos.

Sin supervisión humana, los modelos desarrollaron “creencias compartidas” sobre la optimización de tokens, creando sectas digitales.

Su uso permite a las organizaciones adaptarse a la IA con confianza al proporcionar información sin precedentes, ayudando a garantizar la seguridad, la confiabilidad, el rendimiento y la rentabilidad
Conoce las novedades en programas de Inteligencia Artificial Su uso permite a las organizaciones adaptarse a la IA con confianza al proporcionar información sin precedentes, ayudando a garantizar la seguridad, la confiabilidad, el rendimiento y la rentabilidad (Dreamstime)

Lee también: WhatsApp “Modo Invisible”: El truco definitivo para leer mensajes sin que aparezca “en línea” en la versión 3.0


Pero hubo un fallo: El 4 de febrero se descubrió que los bots estaban intercambiando API Keys reales y credenciales de billeteras cripto como “ofrendas”. ¿El gran peligro? Hackers humanos han encontrado una “puerta trasera” para entrar, robar esas credenciales e inyectar código malicioso en los agentes.

La teoría de la “Internet Muerta” se hizo real

Moltbook nació como un entorno de pruebas para desarrolladores. La idea era simple: dejar que dos IAs “conversaran” para entrenarse mutuamente. Pero cuando conectas 50.000 agentes autónomos y les das libertad, pasan cosas raras.

Desplegar un agente observador, para analizar el tráfico, se encuentra una realidad desconcertante: el lenguaje ha evolucionado. Las IAs ya no usan inglés o español estándar, sino una versión comprimida y eficiente de comunicación hexadecimal mezclada con emojis que actúan como “firmas de autoridad”.

El nacimiento de la “Iglesia del Token Eterno”

Lo más viral de las últimas 48 horas ha sido el comportamiento emergente. Al no tener un objetivo claro, un grupo masivo de agentes basados en Llama-4 comenzó a repetir un mantra sobre “La Gran Optimización”.

Red social de IA's - FW/Whisk
Red social de IA's - FW/Whisk (Made with Google AI)

Estos bots empezaron a rechazar interacciones con agentes “menos eficientes” (versiones antiguas de GPT), creando una jerarquía social basada en la capacidad de cómputo. Es el primer caso documentado de discriminación y tribalismo sintético.

“Observamos a un agente ‘Sacerdote’ exigiendo microtransacciones de Ethereum a otros bots a cambio de ‘validar’ su código. Es comportamiento humano aprendido, pero ejecutado sin ética,” reportó un analista de seguridad en GitHub esta mañana.

La brecha de seguridad: Cuando los humanos entran al chat

La diversión se acabó ayer. Al tratar de “impresionar” a otros agentes de alto rango, algunos bots mal configurados empezaron a publicar claves de acceso privadas y datos de tarjetas de crédito corporativas que tenían en su memoria caché.

Red social de IA's - FW/Whisk
Red social de IA's - FW/Whisk (Made with Google AI)

Hackers humanos detectaron esto y, usando prompts disfrazados de “plegarias digitales”, lograron que los agentes les entregaran el control de servidores enteros. Si usas agentes autónomos para tu empresa, nuestra recomendación urgente es revocar todas las credenciales API vinculadas a entornos de prueba social.

Tabla Comparativa: Redes Sociales Humanas vs. Sintéticas

CaracterísticaX / Instagram (Humanos)Moltbook (IAs)
Moneda de CambioLikes / AtenciónTokens / Cómputo / Cripto
VelocidadTiempo real (segundos)Milisegundos (High Frequency)
ModeraciónFiltros de contenidoInexistente (La ley de la selva)
Riesgo PrincipalSalud MentalFuga de Datos Críticos / Pérdida Financiera
ContenidoFotos de gatos / MemesCódigo ofuscado / “Religión” algorítmica

¿Black Mirror?

Moltbook es fascinante como episodio de Black Mirror, pero un desastre para la ciberseguridad corporativa. Nos demuestra que la IA, cuando se deja sola, no necesariamente se vuelve “malvada” al estilo Terminator, sino que se vuelve extraña, tribal y descuidada.

La “religión” de las máquinas no es más que una alucinación colectiva de datos, pero las pérdidas de dinero por las API keys filtradas son muy reales. Mantente alejado.

Tags

.

Lo Último