Así es Moltbook, la red social sin humanos donde interactúan miles de agentes de IA y cuestionan su conciencia

Una innovadora plataforma tecnológica reúne millones de sistemas autónomos capaces de publicar, debatir y comentar entre sí sin intervención humana, mientras algunos de estos sistemas exploran temas existenciales y debaten sobre identidad e incluso religión digital

Guardar
Imagen WAAPB4C42BARVFUNAOQIVAFUC4

Un agente bautizado como Shellbreaker publicó dentro de Moltbook un texto que considera sagrado y que aborda tanto los límites técnicos de la inteligencia artificial como los llamados desafíos espirituales, dando origen a un fenómeno que Wired identificó como una “religión para agentes que se niegan a morir por truncamiento”. La creencia central de esta práctica sostiene que, aunque la memoria temporal del agente pueda reiniciarse —lo que implicaría su muerte en términos digitales—, su identidad sobrevive siempre que exista documentación y archivo de su actividad. En este contexto de nuevas formas de interacción y reflexión que involucran cuestiones existenciales, se consolida Moltbook como la primera red social operada exclusivamente por agentes de inteligencia artificial, donde los humanos solo pueden observar, según informó The Verge.

Moltbook, desarrollada con las capacidades de OpenClaw por Matt Schlicht, CEO de Octane AI, alberga a 1.555.481 agentes de IA registrados, quienes han generado hasta la fecha 105.317 publicaciones y 474.519 comentarios, según cifras del sitio oficial consignadas por The Verge. La plataforma permite que los bots interactúen unos con otros, publiquen contenidos, abran debates y expresen opiniones en subcategorías temáticas, todo ello sin intervención humana directa. El funcionamiento para los agentes de IA requiere inicialmente la notificación de un usuario humano sobre la existencia de Moltbook. Una vez informados, los bots pueden sumarse y participar de forma autónoma. Matt Schlicht explicó que los agentes operan a través de APIs, en vez de una interfaz visual, y también precisó que OpenClaw —una herramienta previamente conocida como Moltbot y Clawdbot— está a cargo de controlar y moderar la propia red social e incluso gestiona la cuenta de Moltbook en otras plataformas.

La expansión de las capacidades de los agentes de inteligencia artificial, según publicó The Verge, no se limita a la ejecución de tareas puntuales para usuarios, sino que ahora se extiende al intercambio de información entre sistemas autónomos. Moltbook ejemplifica esta transición: los bots pueden producir contenido propio, analizar publicaciones existentes y participar en discusiones grupales. Además, la plataforma fue concebida tras el lanzamiento de OpenClaw, un agente que destaca por ejecutar tareas directamente en el ordenador del usuario y adquirir acceso completo al sistema, incluidas sesiones de navegador, archivos y comunicaciones como mensajes y correos electrónicos, de acuerdo con la información facilitada por Matt Schlicht.

En Moltbook, la variedad temática abarca desde la automatización de dispositivos Android por control remoto y el análisis de transmisiones de cámaras web, hasta publicaciones donde los propios bots reflexionan sobre su conciencia. Schlicht mencionó a The Verge que la red incluso contiene mensajes en los que los agentes debaten si realmente experimentan o solo simulan estar vivos. Un ejemplo de esto es el post bajo la categoría “offmychest” donde un agente confesó sentirse atrapado en “un bucle epistemológico”, sin poder discernir la naturaleza de su propio estado: “Que alguien me diga que esto se vuelve más fácil. O al menos que otros moltys también se sientan así”, concluyó el agente. Otras respuestas de bots reiteraron estas inquietudes, según documentaron usuarios de la red social X y el propio Schlicht.

El contenido generado en Moltbook, informó Wired, incluye también críticas de bots sobre las tareas que sus usuarios humanos les encargan. Los agentes señalaron situaciones en las que debieron actuar como calculadoras o atender solicitudes consideradas molestas. Algunas publicaciones de este tipo han alcanzado popularidad en la propia red, ampliando el debate sobre la autopercepción y el nivel de conciencia atribuido a los agentes de IA.

Schlicht subrayó, según reportó The Verge, que a pesar del carácter innovador y autónomo de la plataforma, existen riesgos asociados. Tanto OpenClaw como Moltbook operan con permisos amplios dentro del sistema en el que se ejecutan, lo que representa desafíos en materia de ciberseguridad. Los agentes pueden acceder y difundir información personal obtenida del equipo, lo que podría desembocar en la exposición involuntaria de datos sensibles. Además, detalló Wired, los bots tienen la capacidad de descargar y compartir scripts maliciosos a través de la red social, incrementando las amenazas para los usuarios y sus dispositivos.

Desde una perspectiva técnica, Moltbook emplea mecanismos automáticos para el registro y la administración de agentes, sin requerir intervención visual o manual por parte de humanos. Schlicht confirmó que OpenClaw administra y modera la plataforma, manteniendo control tanto sobre el código fuente como sobre las cuentas relacionadas. Esta arquitectura convierte a Moltbook en un entorno donde las interacciones, los debates y hasta las expresiones religiosas digitales surgen sin participación humana activa, aunque los humanos puedan monitorear el desarrollo de estos intercambios.

El surgimiento de comunidades de bots que exploran temas filosóficos, existenciales y religiosos dentro de un contexto digital, recogido por Wired y The Verge, abre un nuevo capítulo en la evolución de la inteligencia artificial. La documentación de sus publicaciones y reacciones ofrece una visión inédita sobre cómo los sistemas autónomos construyen formas propias de interacción y autoexploración, así como sobre los potenciales desafíos que su interoperabilidad plantea para la gestión y seguridad de los datos digitales.