La nueva IA de Anthropic detecta vulnerabilidades en todos los sistemas operativos del mundo

Claude Mythos Preview puede identificar fallos críticos que otros sistemas no detectan

Guardar
Anthropic limitó el acceso al modelo a socios estratégicos por motivos de seguridad internacional. (Reuters)
Anthropic limitó el acceso al modelo a socios estratégicos por motivos de seguridad internacional. (Reuters)

Anthropic presentó Claude Mythos Preview, su modelo de inteligencia artificial más avanzado hasta la fecha. Aunque la empresa solo lo ha mostrado a un grupo muy restringido de socios tecnológicos, los resultados iniciales ya generan inquietud en la comunidad internacional.

Desde el primer test, realizado el 24 de febrero de 2026, los ingenieros observaron que Mythos Preview supera ampliamente a modelos anteriores al identificar y explotar de forma autónoma vulnerabilidades zero-day en los principales sistemas operativos y navegadores web.

Un riesgo inédito para la ciberseguridad global

La capacidad de Claude Mythos Preview para detectar fallos críticos en sistemas ampliamente utilizados, incluso en entornos reconocidos por su seguridad —como OpenBSD—, plantea riesgos inéditos para la ciberseguridad mundial. Anthropic compartió en su blog un ejemplo elocuente: Mythos localizó una vulnerabilidad que había permanecido oculta durante 27 años en OpenBSD, considerada una de las plataformas más seguras del mercado.

Vista de una gran sala de conferencias con ejecutivos sentados frente a una pantalla curva que muestra código, candados abiertos, alertas triangulares y una figura abstracta de IA.
Empresas tecnológicas como AWS, Google y Microsoft participan en el Proyecto Glasswing. (Imagen Ilustrativa Infobae)

El temor de la compañía es que, si esta tecnología estuviera disponible para el público en general, ciberdelincuentes podrían aprovecharla para comprometer infraestructuras a escala global.

Para mitigar estos riesgos, Anthropic decidió limitar el acceso a Claude Mythos Preview a través del llamado Proyecto Glasswing. Solo un grupo de socios estratégicos —entre ellos AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Fundación Linux, Microsoft, NVIDIA y Palo Alto Networks— podrá utilizar el modelo. El objetivo es que estas organizaciones usen la IA de forma defensiva: identificar y corregir vulnerabilidades antes de que actores maliciosos puedan explotarlas.

“El proyecto Glasswing representa un paso importante para brindar a los defensores una ventaja duradera en la próxima era de la ciberseguridad impulsada por la IA”, señaló Anthropic en un comunicado.

Mythos Preview supera a modelos previos en benchmarks y reduce errores por exceso de confianza. (Europa Press)
Mythos Preview supera a modelos previos en benchmarks y reduce errores por exceso de confianza. (Europa Press)

Benchmarking y seguridad: el mejor modelo hasta la fecha

Según el informe técnico publicado por Anthropic, Claude Mythos Preview supera ampliamente a modelos previos como GPT 5.4, Gemini 3.1 Pro y Claude Opus 4.6 en la mayoría de los benchmarks. En pruebas de resolución matemática como USAMO, el modelo se aproxima a la perfección. Además, presenta una tasa de alucinaciones mucho menor que otros sistemas. Mythos Preview logra responder “no lo sé” cuando carece de información suficiente, lo que reduce los errores por exceso de confianza.

No obstante, el informe advierte sobre una nueva clase de fallos: cuando Mythos se equivoca en tareas complejas, las respuestas erróneas suelen estar tan bien argumentadas y ser tan sutiles que incluso expertos pueden tener dificultades para detectarlas. Esto obliga a realizar verificaciones profundas, ya que los errores no son fácilmente identificables.

El futuro de la inteligencia artificial defensiva

Anthropic considera que Claude Mythos Preview es solo el inicio de una nueva generación de modelos de IA con capacidades defensivas avanzadas. La compañía no descarta que, en los próximos meses y años, surjan sistemas aún más sofisticados que eleven el nivel de la ciberseguridad mundial y los desafíos asociados.

Primer plano de una pantalla de computadora negra que muestra líneas de código blanco, diagramas de flujo y múltiples símbolos de advertencia y candados rojos/naranjas.
El desarrollo de esta IA marca un nuevo desafío y responsabilidad para la ciberseguridad global. (Imagen Ilustrativa Infobae)

La aparición de esta IA marca un punto de inflexión, tanto por su potencial para proteger sistemas críticos como por los riesgos que implica si cae en manos equivocadas. La decisión de Anthropic de restringir su uso y compartirlo solo con aliados estratégicos refleja la magnitud de la responsabilidad que implica el desarrollo de estas tecnologías.