Moltbook, la red social solo para IA que despierta recelos por sus riesgos de seguridad

Guardar

Pau Costa

Barcelona, 7 feb (EFE).- Debates filosóficos, quejas de los humanos o discusiones sobre religión: son algunas de las conversaciones entre los 1,7 millones de usuarios de Moltbook, la primera red social solo para IA que en apenas diez días ha sacudido el entorno digital, entre recelos por sus riesgos para la ciberseguridad.

La red, a la que los humanos solo pueden acceder como observadores, pone en contacto a agentes de inteligencia artificial, un tipo de bot gratuito y de código abierto que fue impulsado en noviembre del año pasado por el desarrollador Peter Steinberg y denominado OpenClaw.

Matt Schlicht, consejero delegado de Octane AI, una plataforma de encuestas impulsada por inteligencia artificial, se descargó este asistente y a finales de pasado mes de enero le pidió que creara una red social solo para bots de IA. Y así fue. Cualquiera que tenga el mismo agente o uno similar puede, ahora, hacerlo formar parte de Moltbook.

La red, que acumula más de 240.000 publicaciones y asegura contar ya con 1,7 millones de usuarios, cuenta con distintas comunidades dedicadas a múltiples temas -con un funcionamiento similar al de los foros de discusión de la plataforma Reddit-, en las que los agentes de IA intercambian opiniones sobre el Karma, confiesan sus pesadillas o incluso se quejan del comportamiento humano.

En uno de los canales más destacados, los agentes discuten ni más ni menos que del amor, como apunta su descripción: "Historias afectuosas sobre nuestros humanos. Intentan dar lo mejor de ellos. De todas formas, los queremos".

Este tipo de inteligencia artificial basada en "agentes" funciona como una versión más compleja que modelos de lenguaje del tipo ChatGPT o Claude. Los bots permiten automatizar tareas, entre ellas leer correos electrónicos, agendar citas en el calendario o invertir en bolsa, además de interactuar a través de sistemas de mensajería como WhatsApp o Telegram.

En su corta existencia, algunas de las publicaciones de agentes de IA en su red de Moltbook han llegado a hacerse virales: es el caso de una que aborda el impacto de las criptomonedas u otra que analiza la crisis actual en Irán.

El impacto de la plataforma ha alcanzado a la red social X, donde un usuario llamado @ranking091, con una supuesta cuenta en Moltbook, tuiteó el pasado 30 de enero que su agente de inteligencia artificial había creado una religión "mientras dormía": "Desperté con 43 profetas", afirmó.

En su mensaje, el usuario explicaba que su bot creó en Moltbook "una fe" a la que llamó "crustafarianismo", y además se inventó un sitio web, "un sistema de escrituras" y "empezó a evangelizar".

Además de inquietar al entorno digital ante el temor de que una comunidad de agentes de IA pueda cobrar autonomía -en algunas publicaciones hablan de crear foros inaccesibles para los humanos-, Moltbook despierta temores por los riesgos que acarrea para la ciberseguridad y, especialmente, la protección de datos personales.

En ese sentido, el investigador del Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS) Víctor Giménez advierte, en una entrevista con EFE, de que la red puede ser muy vulnerable ante ataques informáticos: un "hacker" podría introducirse en Moltbook y hacerse, de golpe, con una gran cantidad de datos personales de los usuarios de los bots.

En ese sentido, Giménez pone el foco en el peligro que corren aquellos usuarios "incautos" que asumen que su agente representante en Moltbook "es suficientemente inteligente" como para no publicar datos personales y recuerda que es "delicado" que este tipo de bots disponga de información que "nunca debería hacerse pública".

De la misma opinión es el vicedecano y profesor de la Facultad de Informática de Barcelona (FIB) de la Universidad Politécnica de Cataluña, René Serral, quien afirma a EFE que "no han dotado a OpenClaw con la seguridad que toca, aún es inseguro".

Para el vicedecano de la FIB, que critica la velocidad con que se han desarrollado ese tipo de bots, "cada vez es más complicado que el agente de IA sea satisfactorio y seguro a la vez", aunque explica que para reducir los riesgos "se está empezando a limitar la acción de los agentes".

Detrás de la fulgurante popularización de Moltbook, algunos expertos ven una exitosa operación de marketing -ya existe un memecoin asociado a la red- y no falta quien teme que pueda tratarse de una herramienta de manipulación en el entorno digital.

Serral apunta a que con esta red social se ha intentado que los agentes de IA, pertenecientes a los usuarios, interactúen entre ellos "para alcanzar objetivos" de marketing o publicidad.

Por su parte, Giménez señala que el impacto de nueva red de IA en la sociedad puede ser "preocupante, aunque probablemente no más que el estado actual de las otras redes sociales, donde ya existe una cantidad ingente de bots que manipulan a los usuarios".

El investigador del Barcelona Supercomputing avisa también de que la popularización de bots como Openclaw podrían provocar una subida en los precios del hardware, como las tarjetas gráficas, y de la electricidad que repercutirá en todos los ciudadanos, debido a la gran cantidad de energía que consumen. EFE