Qué es Claude Mythos y por qué preocupa a expertos en seguridad informática

Anthropic decidió no liberar el modelo por los riesgos que implica en ciberseguridad

Guardar
Claude Mythos es una IA que puede detectas fallos informáticos.
Claude Mythos es una IA que puede detectas fallos informáticos.

La empresa de inteligencia artificial Anthropic presentó Claude Mythos Preview, un modelo experimental con capacidades avanzadas de ciberseguridad que ha generado preocupación entre expertos por su potencial para identificar y explotar vulnerabilidades críticas en sistemas informáticos.

Según la propia compañía, esta IA es capaz de detectar fallos de tipo “zero-day” —errores desconocidos incluso para los desarrolladores— y, en muchos casos, diseñar métodos para aprovecharlos de forma autónoma.

De acuerdo con los ingenieros de Anthropic, el modelo representa un salto significativo respecto a versiones anteriores. Durante sus pruebas iniciales, Claude Mythos logró identificar miles de vulnerabilidades en sistemas operativos y navegadores ampliamente utilizados, y fue capaz de generar exploits funcionales para aproximadamente el 72% de ellas en determinadas categorías.

Anthropic impulsa el Proyecto Glasswing para reforzar la ciberseguridad del software global con el modelo Claude Mythos.
Anthropic impulsa el Proyecto Glasswing para reforzar la ciberseguridad del software global con el modelo Claude Mythos.

Ante el riesgo que implica esta capacidad, la empresa decidió no liberar públicamente la herramienta. En su lugar, convocó a un grupo de 50 compañías tecnológicas para trabajar de forma conjunta en la corrección de los fallos detectados. Entre las organizaciones involucradas se encuentran Amazon Web Services, Apple, Google, Microsoft, Nvidia y The Linux Foundation, entre otras.

El objetivo de esta colaboración es cerrar las brechas de seguridad antes de que herramientas similares puedan ser utilizadas con fines maliciosos. Como parte de la iniciativa, Anthropic planea destinar hasta 100 millones de dólares en créditos de uso de IA para que estas empresas analicen y refuercen el software que sustenta la infraestructura digital global.

Claude Mythos destaca por su capacidad para realizar auditorías de seguridad de manera casi autónoma. A partir de instrucciones simples, el modelo puede analizar grandes volúmenes de código en sistemas operativos, navegadores, librerías y otras herramientas, identificando errores que podrían pasar desapercibidos para expertos humanos o herramientas tradicionales.

Anthropic destinará 100 millones de dólares en créditos para que las empresas refuerzas sus estructuras digitales.
Anthropic destinará 100 millones de dólares en créditos para que las empresas refuerzas sus estructuras digitales.

Uno de los casos más llamativos reportados por la compañía es el hallazgo de una vulnerabilidad con 27 años de antigüedad en OpenBSD, un sistema conocido precisamente por su enfoque en la seguridad. Este descubrimiento ilustra el alcance del modelo y su capacidad para detectar fallos en software considerado altamente robusto.

El proyecto, denominado internamente como Glasswing, reúne a grandes empresas tecnológicas y de ciberseguridad para evaluar el impacto de estas capacidades. Firmas especializadas como Palo Alto Networks y CrowdStrike han señalado que tareas que antes requerían meses o incluso años de trabajo pueden realizarse ahora en cuestión de minutos gracias a la inteligencia artificial.

Este avance plantea un escenario dual. Por un lado, ofrece una herramienta poderosa para fortalecer la seguridad digital a gran escala, permitiendo identificar y corregir vulnerabilidades de forma más rápida y eficiente. Por otro, abre la posibilidad de que tecnologías similares sean utilizadas por actores maliciosos para explotar fallos antes de que sean solucionados.

Claude - Anthropic - desarrolladores - IA - tecnología - 29 de marzo
Anthropic decidió no lanzar de manera pública su nueva IA que puede descubrir graves fallos de seguridad en sistemas operativos. (Composición Infobae: REUTERS/Denis Balibouse / X: claudeai)

La preocupación radica en que el desarrollo de modelos con estas capacidades podría superar la velocidad a la que la industria puede adaptarse. Si bien el uso controlado de estas herramientas puede mejorar la seguridad, su eventual acceso por parte de ciberdelincuentes representaría un riesgo significativo para sistemas críticos en todo el mundo.

Anthropic sostiene que su enfoque busca adelantarse a ese escenario, utilizando la misma tecnología que podría representar una amenaza para reforzar las defensas antes de que sea demasiado tarde. Sin embargo, el lanzamiento de Claude Mythos también refleja un cambio en la dinámica de la ciberseguridad, donde la inteligencia artificial no solo es una herramienta de protección, sino también un posible vector de riesgo.

En un contexto donde la infraestructura digital global depende de software cada vez más complejo, la aparición de modelos capaces de analizar y explotar vulnerabilidades a gran escala marca un punto de inflexión. La carrera por asegurar estos sistemas podría intensificarse en los próximos años, impulsada por el avance de tecnologías como Claude Mythos.