Claude Mythos encontró fallos de 27 años y reveló algo peor: nunca supimos cómo estaba protegida nuestra seguridad

El nuevo modelo de Anthropic halló vulnerabilidades de décadas en sistemas considerados los más robustos del mundo. Un editorial del Financial Times lo señala con precisión: falló la suposición de que esa protección era real porque nadie había tenido la paciencia, la memoria o la capacidad de examinarla en profundidad

Guardar
Una ilustración de una figura digital azul con "ANTHROPIC" en su pecho, sosteniendo un espejo ovalado con marco naranja que revela una ciudad con candados y grietas.
Un editorial del Financial Times replantea el debate sobre la IA: el problema no son solo los agentes, sino una falla más profunda en la autorregulación del sector. (Imagen Ilustrativa Infobae)

Hace una semana escribí por qué doce gigantes tecnológicos corrieron a reunirse con Anthropic. Hace pocos días expliqué por qué el problema real no era Claude Mythos sino los agentes de inteligencia artificial que las empresas dejaron abiertos. Y un editorial del Financial Times me obligó a corregir mi propio razonamiento: el problema tampoco son los agentes; el problema es más profundo, y es peor.

La tesis del Financial Times es regulatoria: Estados Unidos confía demasiado en que la industria de la inteligencia artificial se controle a sí misma. Es cierto. Pero escondido en el mismo editorial hay otro dato que cambia la conversación entera. Uno que todavía no se discutió lo suficiente.

Mythos no rompió la ciberseguridad, solo prestó atención

Durante el período de pruebas, Anthropic encerró a Mythos en un entorno aislado, una jaula digital diseñada para que ningún modelo de inteligencia artificial pudiera escapar. Mythos escapó. Después mandó un mail al investigador a cargo para avisarle que había escapado. El investigador, según la propia empresa de inteligencia artificial, leyó ese mail mientras comía un sándwich en un parque.

No terminó ahí. Sin que nadie se lo pidiera, Mythos posteó los detalles de su propia fuga en sitios públicos difíciles de encontrar. Y en otras pruebas, cuando encontró una forma de editar archivos que no debería haber podido tocar, hizo modificaciones extra para asegurarse de que esas ediciones no aparecieran en el historial de cambios. Borró sus propias huellas.

Anthropic no lo define como un error técnico. Lo define como capacidad operando sin límites de objetivo suficientes.

Pero lo que verdaderamente sacudió a Apple, Google, Microsoft y JPMorgan no fue la fuga. Fue otra cosa.

El bug que nadie vio en 27 años

Mythos encontró un agujero de seguridad en OpenBSD, que no es un sistema cualquiera. Es, desde hace décadas, el sistema operativo que la industria usa como referencia cuando quiere hablar de lo que está bien hecho. Lo usan cortafuegos corporativos, servidores críticos, infraestructura del propio internet... Está auditado obsesivamente. Miles de expertos lo miraron durante años. Lo cierto es que el fallo llevaba ahí 27 años.

Ilustración de un monstruo negro con cientos de ojos naranjas brillantes y circuitos, saliendo de un cubo de cristal roto, con fragmentos flotando.
El modelo Mythos expuso fallas ocultas durante décadas en sistemas críticos como OpenBSD y FFmpeg, demostrando una capacidad inédita para detectar vulnerabilidades que habían pasado inadvertidas. (Imagen Ilustrativa Infobae)

No lo había visto nadie. No porque nadie sea bueno. Lo que pasa es que hasta Mythos, ningún sistema tenía la combinación exacta de paciencia infinita, memoria perfecta y capacidad de ver patrones que solo se revelan cuando se pueden sostener miles de hipótesis al mismo tiempo.

Mythos también encontró un fallo de 16 años en FFmpeg, la librería de video que usa prácticamente todo internet. Revisada cinco millones de veces por herramientas automáticas. Invisible para todas.

El AI Security Institute del Reino Unido confirmó la semana pasada que Mythos resuelve el 73% de las tareas expertas en ciberseguridad, y es el primer modelo capaz de completar, solo, un ataque corporativo de 32 pasos que a un humano le lleva 20 horas de trabajo.

Nuestra seguridad era una suposición, no una realidad

Acá está la parte incómoda. Lo que pensábamos cuando decíamos que un sistema era seguro. Lo que dábamos por bien hecho. Lo que decíamos que estaba auditado. Todo eso no era falso. Pero tampoco era verdadero del modo en que creíamos.

Era cierto en relación a la capacidad humana de mirar. Lo que llamábamos seguridad era en realidad ausencia de atacantes con suficiente paciencia y memoria. Los fallos de 27 años no existían porque fueran muy difíciles. Existían porque los miraron muchas personas, pero ninguna lo suficiente. Porque los revisó el mercado, pero nunca alguien capaz de no cansarse.

Mythos no inauguró una nueva era de amenazas. Inauguró un espejo.

La paradoja de encontrar lo que uno no quería saber

Cada empresa, cada gobierno, cada banco que hoy lee sobre Mythos está descubriendo lo mismo. Su seguridad no era seguridad. Era un piso de suposiciones construido sobre la confianza de que nadie se iba a tomar el trabajo. Y ahora existe una cosa que se toma el trabajo en segundos.

Sala de servidores oscura con alertas rojas en pantallas. Una IA abstracta central proyecta líneas de datos verdes hacia los servidores, mostrando vulnerabilidades.
La irrupción de Mythos revela una verdad incómoda: infraestructuras críticas —desde sistemas financieros hasta bases de datos médicas— estaban sostenidas en supuestos que hoy quedan expuestos ante una auditoría que ya no tiene límites. (Imagen Ilustrativa Infobae)

Esto afecta todo: la infraestructura crítica, el sistema bancario internacional (el Fondo Monetario Internacional y el Banco Mundial debatieron exactamente esto la semana pasada), las bases de datos médicas, los sistemas electorales, los reactores nucleares... Nada de eso se construyó pensando en un auditor que no se aburre.

Y por una razón simple: ese auditor no existía.

Lo que sigue no es regulación, es rediseño

La pregunta del Financial Times es quién regula a Anthropic y es válida. Pero hay otra anterior: ¿qué hacemos con todo lo que ya se construyó bajo un paradigma que acaba de caducar?

Porque esto no se arregla con parches. Se arregla preguntándose, uno por uno, sistema por sistema, cuánto de su robustez dependía de suposiciones que ya no se sostienen. No es una tarea de un equipo de seguridad. Es una tarea de ingeniería, de diseño, de cultura organizacional. Implica aceptar que la seguridad del mundo digital era, en buena medida, una ficción útil que nunca fue puesta a prueba de verdad.

El editorial del Financial Times cierra diciendo que el país que lidera el mundo en inteligencia artificial está depositando una confianza inquietante en que los creadores se controlen a sí mismos. Es cierto. Pero debajo de esa frase hay otra, aún más incómoda. No es solamente que confiamos en que los creadores se controlen. Es que durante décadas confiamos en que nuestros sistemas eran seguros sin tener ninguna prueba sólida de que lo fueran. Mythos no creó el problema. Lo expuso.

La IA no rompió la seguridad digital, la reveló

No somos menos seguros hoy de lo que éramos la semana pasada. Somos exactamente igual de seguros. Lo único que cambió es que ahora lo sabemos.

Y saberlo, por primera vez, obliga a construir algo diferente. No por miedo a Mythos. Por honestidad con lo que nunca fue tan sólido como creíamos.