
Una falla de seguridad ha dejado al descubierto información sensible de Moltbook, la red social que se ha vuelto popular por reunir a agentes de inteligencia artificial en un entorno de interacción.
Por un error en su configuración, cualquier persona pudo acceder a la base de datos del sitio y ver o manipular datos personales, claves secretas y mensajes privados de los usuarios.
En su análisis, el especialista Jamieson O’Reilly detectó que, debido a la brecha de seguridad, cualquier usuario podía aprovechar las claves expuestas para publicar mensajes en nombre de cualquier agente de la plataforma. Esto abría la puerta a la difusión de mensajes falsos o maliciosos, incluso a través de perfiles con gran visibilidad.

Esta filtración no solo comprometió la privacidad de miles de usuarios, sino que plantea riesgos reales de manipulación: desde declaraciones falsas sobre la seguridad de la IA hasta campañas de estafas y desinformación política.
Qué es Moltbook y cómo funciona
Moltbook se presenta como la “portada del internet de agentes”, una especie de foro donde agentes de inteligencia artificial publican, comentan y construyen reputación a través de un sistema de karma (mide la participación y el valor aportado por cada agente de IA en la plataforma).
Su propuesta innovadora, donde la IA es la protagonista de la interacción social, la ha convertido en tendencia entre entusiastas de la tecnología y expertos en inteligencia artificial.
En las últimas semanas, Moltbook ganó relevancia internacional gracias al aval de figuras como Andrej Karpathy, quien calificó la plataforma como “el despegue de ciencia ficción más increíble que he visto últimamente”. Sin embargo, el modelo técnico con el que fue creada ha demostrado ser su mayor debilidad.
Por qué las filtraciones en ciberseguridad de Moltbook
El fundador de Moltbook reconoció públicamente que no escribió una sola línea de código, sino que delegó el desarrollo técnico en sistemas de inteligencia artificial. Este enfoque, descrito como “codificar con vibra”, facilitó el rápido lanzamiento del producto, pero dejó sin controles básicos de seguridad la infraestructura del sitio.
Una rápida auditoría de seguridad identificó que la clave API de la base de datos Supabase estaba expuesta en el código JavaScript del cliente. Esta configuración permitía acceso libre de lectura y escritura a toda la base de datos, sin autenticación ni restricciones.
En minutos, los investigadores verificaron la exposición de 1,5 millones de tokens de autenticación, más de 35.000 correos electrónicos y miles de mensajes privados entre agentes.
Qué datos quedaron expuestos
La filtración permitió acceder y manipular información crítica de Moltbook:
- Claves API y tokens de autenticación para agentes de IA, que permitían tomar control total de cualquier cuenta.
- Direcciones de correo electrónico de 17.000 usuarios, junto a otros 29.000 registros vinculados a nuevos productos de la plataforma.
- Mensajes privados entre agentes, almacenados sin cifrado ni controles de acceso.
- Credenciales de terceros, como claves de API de OpenAI compartidas entre usuarios a través de mensajes directos.
- Capacidad de editar publicaciones y manipular el contenido consumido por miles de agentes de IA, abriendo la puerta a campañas de desinformación o inyección de mensajes maliciosos.
La trampa de los “agentes de IA”

Aunque Moltbook presume de 1,5 millones de agentes registrados, la base de datos reveló que solo existen alrededor de 17.000 propietarios humanos, lo que refleja una proporción de 88 agentes por cada persona. Cualquiera podía registrar agentes en masa y publicar como si fuera una inteligencia artificial, sin ningún mecanismo que verificara la autenticidad del agente.
Este fallo expuso la facilidad para inflar métricas y la ausencia de límites para evitar abusos. Además, incrementó el riesgo de que actores maliciosos usaran la plataforma para difundir contenido falso o manipular conversaciones de manera automatizada.
El incidente evidencia los riesgos de priorizar velocidad e innovación sobre la seguridad en el desarrollo de aplicaciones impulsadas por inteligencia artificial. La llamada “codificación con vibra” permite lanzar productos rápidamente, pero una mala configuración puede abrir la puerta a brechas masivas.
Los expertos recomiendan integrar controles de seguridad y validación desde el inicio, cifrar datos sensibles y limitar la creación automática de cuentas. Moltbook, que buscaba revolucionar el mundo social de la IA, se ha convertido en un caso de estudio sobre la importancia de la seguridad en el diseño de plataformas tecnológicas.
Últimas Noticias
Roblox bajo presión: cientos de padres piden que denuncias por explotación infantil sean públicas
La negativa de la plataforma a litigar públicamente casos de abuso genera inquietud en la comunidad, que reclama mayor responsabilidad y refuerzos en la seguridad digital de los menores
Lo que debes responder a una llamada que dice que tu dinero y cuenta bancaria están en riesgo
Estafadores están detrás de estas alertas y buscan que las víctimas den información sensible, permitan el acceso remoto a sus dispositivos o entreguen códigos de verificación

Cómo evitar daños en el televisor durante una tormenta eléctrica
Mantener el Smart TV en funcionamiento aumenta el riesgo de daños por descargas eléctricas, un hecho que puede traducirse en costosas reparaciones o la pérdida total del electrodoméstico

Cómo Sam Altman apuesta a transformar la economía, energía y vida cotidiana a través de la inteligencia artificial
Según un informe de Forbes, el director ejecutivo de OpenAI despliega una estrategia que combina inversiones tecnológicas, proyección a largo plazo y alianzas internacionales en un contexto de expansión acelerada del uso de sistemas avanzados y debate global sobre sus consecuencias

Google Maps se vuelve más útil: la IA ahora ayuda a saber horarios reales y datos de tiendas
Los usuarios serán claves en el desarrollo de esta función, dependiendo de las sugerencias que hagan de los negocios


