Alerta en Moltbook: la red social de IA filtró millones de datos personales y claves de acceso

El acceso no autorizado a mensajes, correos y controles de cuentas deja en evidencia la vulnerabilidad de sistemas creados con métodos automáticos y sin auditoría técnica rigurosa

Guardar
La filtración masiva en Moltbook
La filtración masiva en Moltbook expone los riesgos asociados a la construcción acelerada de plataformas impulsadas por inteligencia artificial y subraya la importancia de combinar innovación tecnológica con protección robusta de los datos y la identidad de los usuarios

Una falla de seguridad ha dejado al descubierto información sensible de Moltbook, la red social que se ha vuelto popular por reunir a agentes de inteligencia artificial en un entorno de interacción.

Por un error en su configuración, cualquier persona pudo acceder a la base de datos del sitio y ver o manipular datos personales, claves secretas y mensajes privados de los usuarios.

En su análisis, el especialista Jamieson O’Reilly detectó que, debido a la brecha de seguridad, cualquier usuario podía aprovechar las claves expuestas para publicar mensajes en nombre de cualquier agente de la plataforma. Esto abría la puerta a la difusión de mensajes falsos o maliciosos, incluso a través de perfiles con gran visibilidad.

La exposición de claves y
La exposición de claves y datos personales en la popular red social de agentes inteligentes facilita la difusión de desinformación y pone en riesgo la autenticidad digital - (Imagen Ilustrativa Infobae)

Esta filtración no solo comprometió la privacidad de miles de usuarios, sino que plantea riesgos reales de manipulación: desde declaraciones falsas sobre la seguridad de la IA hasta campañas de estafas y desinformación política.

Qué es Moltbook y cómo funciona

Moltbook se presenta como la “portada del internet de agentes”, una especie de foro donde agentes de inteligencia artificial publican, comentan y construyen reputación a través de un sistema de karma (mide la participación y el valor aportado por cada agente de IA en la plataforma).

Su propuesta innovadora, donde la IA es la protagonista de la interacción social, la ha convertido en tendencia entre entusiastas de la tecnología y expertos en inteligencia artificial.

En las últimas semanas, Moltbook ganó relevancia internacional gracias al aval de figuras como Andrej Karpathy, quien calificó la plataforma como “el despegue de ciencia ficción más increíble que he visto últimamente”. Sin embargo, el modelo técnico con el que fue creada ha demostrado ser su mayor debilidad.

Por qué las filtraciones en ciberseguridad de Moltbook

La filtración en Moltbook muestra
La filtración en Moltbook muestra los peligros de la “codificación con vibra” en IA - REUTERS/Raphael Satter

El fundador de Moltbook reconoció públicamente que no escribió una sola línea de código, sino que delegó el desarrollo técnico en sistemas de inteligencia artificial. Este enfoque, descrito como “codificar con vibra”, facilitó el rápido lanzamiento del producto, pero dejó sin controles básicos de seguridad la infraestructura del sitio.

Una rápida auditoría de seguridad identificó que la clave API de la base de datos Supabase estaba expuesta en el código JavaScript del cliente. Esta configuración permitía acceso libre de lectura y escritura a toda la base de datos, sin autenticación ni restricciones.

En minutos, los investigadores verificaron la exposición de 1,5 millones de tokens de autenticación, más de 35.000 correos electrónicos y miles de mensajes privados entre agentes.

Qué datos quedaron expuestos

La filtración permitió acceder y manipular información crítica de Moltbook:

  • Claves API y tokens de autenticación para agentes de IA, que permitían tomar control total de cualquier cuenta.
  • Direcciones de correo electrónico de 17.000 usuarios, junto a otros 29.000 registros vinculados a nuevos productos de la plataforma.
  • Mensajes privados entre agentes, almacenados sin cifrado ni controles de acceso.
  • Credenciales de terceros, como claves de API de OpenAI compartidas entre usuarios a través de mensajes directos.
  • Capacidad de editar publicaciones y manipular el contenido consumido por miles de agentes de IA, abriendo la puerta a campañas de desinformación o inyección de mensajes maliciosos.

La trampa de los “agentes de IA”

Moltbook queda al descubierto: datos,
Moltbook queda al descubierto: datos, mensajes y cuentas de IA comprometidos tras una brecha crítica - (Imagen ilustrativa Infobae)

Aunque Moltbook presume de 1,5 millones de agentes registrados, la base de datos reveló que solo existen alrededor de 17.000 propietarios humanos, lo que refleja una proporción de 88 agentes por cada persona. Cualquiera podía registrar agentes en masa y publicar como si fuera una inteligencia artificial, sin ningún mecanismo que verificara la autenticidad del agente.

Este fallo expuso la facilidad para inflar métricas y la ausencia de límites para evitar abusos. Además, incrementó el riesgo de que actores maliciosos usaran la plataforma para difundir contenido falso o manipular conversaciones de manera automatizada.

El incidente evidencia los riesgos de priorizar velocidad e innovación sobre la seguridad en el desarrollo de aplicaciones impulsadas por inteligencia artificial. La llamada “codificación con vibra” permite lanzar productos rápidamente, pero una mala configuración puede abrir la puerta a brechas masivas.

Los expertos recomiendan integrar controles de seguridad y validación desde el inicio, cifrar datos sensibles y limitar la creación automática de cuentas. Moltbook, que buscaba revolucionar el mundo social de la IA, se ha convertido en un caso de estudio sobre la importancia de la seguridad en el diseño de plataformas tecnológicas.