Anthropic presentó Claude Mythos Preview, su modelo de inteligencia artificial más avanzado hasta la fecha. Aunque la empresa solo lo ha mostrado a un grupo muy restringido de socios tecnológicos, los resultados iniciales ya generan inquietud en la comunidad internacional.
Desde el primer test, realizado el 24 de febrero de 2026, los ingenieros observaron que Mythos Preview supera ampliamente a modelos anteriores al identificar y explotar de forma autónoma vulnerabilidades zero-day en los principales sistemas operativos y navegadores web.
Un riesgo inédito para la ciberseguridad global
La capacidad de Claude Mythos Preview para detectar fallos críticos en sistemas ampliamente utilizados, incluso en entornos reconocidos por su seguridad —como OpenBSD—, plantea riesgos inéditos para la ciberseguridad mundial. Anthropic compartió en su blog un ejemplo elocuente: Mythos localizó una vulnerabilidad que había permanecido oculta durante 27 años en OpenBSD, considerada una de las plataformas más seguras del mercado.
El temor de la compañía es que, si esta tecnología estuviera disponible para el público en general, ciberdelincuentes podrían aprovecharla para comprometer infraestructuras a escala global.
Para mitigar estos riesgos, Anthropic decidió limitar el acceso a Claude Mythos Preview a través del llamado Proyecto Glasswing. Solo un grupo de socios estratégicos —entre ellos AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Fundación Linux, Microsoft, NVIDIA y Palo Alto Networks— podrá utilizar el modelo. El objetivo es que estas organizaciones usen la IA de forma defensiva: identificar y corregir vulnerabilidades antes de que actores maliciosos puedan explotarlas.
“El proyecto Glasswing representa un paso importante para brindar a los defensores una ventaja duradera en la próxima era de la ciberseguridad impulsada por la IA”, señaló Anthropic en un comunicado.
Benchmarking y seguridad: el mejor modelo hasta la fecha
Según el informe técnico publicado por Anthropic, Claude Mythos Preview supera ampliamente a modelos previos como GPT 5.4, Gemini 3.1 Pro y Claude Opus 4.6 en la mayoría de los benchmarks. En pruebas de resolución matemática como USAMO, el modelo se aproxima a la perfección. Además, presenta una tasa de alucinaciones mucho menor que otros sistemas. Mythos Preview logra responder “no lo sé” cuando carece de información suficiente, lo que reduce los errores por exceso de confianza.
No obstante, el informe advierte sobre una nueva clase de fallos: cuando Mythos se equivoca en tareas complejas, las respuestas erróneas suelen estar tan bien argumentadas y ser tan sutiles que incluso expertos pueden tener dificultades para detectarlas. Esto obliga a realizar verificaciones profundas, ya que los errores no son fácilmente identificables.
El futuro de la inteligencia artificial defensiva
Anthropic considera que Claude Mythos Preview es solo el inicio de una nueva generación de modelos de IA con capacidades defensivas avanzadas. La compañía no descarta que, en los próximos meses y años, surjan sistemas aún más sofisticados que eleven el nivel de la ciberseguridad mundial y los desafíos asociados.
La aparición de esta IA marca un punto de inflexión, tanto por su potencial para proteger sistemas críticos como por los riesgos que implica si cae en manos equivocadas. La decisión de Anthropic de restringir su uso y compartirlo solo con aliados estratégicos refleja la magnitud de la responsabilidad que implica el desarrollo de estas tecnologías.