Autoridades británicas analizan el impacto del modelo Mythos, la última IA de Anthropic

La compañía reveló que el modelo ya había detectado miles de vulnerabilidades en sistemas operativos, navegadores y programas ampliamente utilizados

Guardar
Anthropic - Mythos - IA - tecnología - 13 de abril
Mythos solo disponible para gigantes tecnológicos ante temor a ciberataques. (Composición Infobae: Europa Press / Difusión)

Los principales reguladores financieros del Reino Unido, junto con la agencia nacional de ciberseguridad y los bancos más importantes del país, han iniciado conversaciones urgentes para evaluar los riesgos asociados al modelo de inteligencia artificial Claude Mythos Preview, desarrollado por Anthropic.

Según informa el Financial Times, este modelo ha llamado la atención de autoridades como el Banco de Inglaterra, la Autoridad de Conducta Financiera (FCA) y el Centro Nacional de Ciberseguridad (NCSC), quienes buscan determinar las posibles vulnerabilidades que la nueva IA podría generar en sistemas informáticos críticos.

Mythos: riesgos de ciberseguridad y reuniones con el sector financiero

Las preocupaciones en torno al modelo Mythos surgen a raíz del despliegue controlado de la IA dentro del Project Glasswing de Anthropic. Bajo esta iniciativa, organizaciones seleccionadas pueden utilizar el modelo en entornos defensivos de ciberseguridad, con el objetivo de identificar y mitigar amenazas en infraestructuras clave.

Las preocupaciones en torno al modelo Mythos surgen a raíz del despliegue controlado de la IA dentro del Project Glasswing de Anthropic.    
REUTERS/Dado Ruvic
Las preocupaciones en torno al modelo Mythos surgen a raíz del despliegue controlado de la IA dentro del Project Glasswing de Anthropic. REUTERS/Dado Ruvic

En una reciente publicación de blog, Anthropic reveló que el modelo ya había detectado miles de vulnerabilidades en sistemas operativos, navegadores y programas ampliamente utilizados.

El medio citado detalla que representantes de los principales bancos, aseguradoras y mercados británicos serán informados en una reunión con los reguladores, prevista para las próximas semanas.

La intención es compartir detalles sobre los riesgos cibernéticos que podría implicar la adopción o el uso indebido del modelo Claude Mythos Preview en el sector financiero.

Claude Mythos es una IA que puede detectas fallos informáticos.
Claude Mythos es una IA que puede detectas fallos informáticos.

Preocupación internacional: reuniones similares en Estados Unidos

Esta inquietud no se limita al Reino Unido. Reuters informó que el Secretario del Tesoro de Estados Unidos, Scott Bessent, también convocó a los principales bancos de Wall Street para analizar el potencial riesgo cibernético del modelo de Anthropic.

Ambas naciones buscan anticiparse a los posibles efectos de las nuevas capacidades de la IA sobre la seguridad de sistemas críticos y la integridad de los mercados financieros.

En este contexto, la cautela de los reguladores refleja la importancia de equilibrar la innovación tecnológica con la protección de infraestructuras clave. El despliegue de modelos avanzados como Claude Mythos Preview obliga a gobiernos y entidades financieras a reforzar la vigilancia y la colaboración internacional para mitigar riesgos emergentes en el ecosistema digital global.

(Imagen Ilustrativa Infobae)
Anthropic afirma que Claude Mythos tiene la capacidad de detectar y aprovechar vulnerabilidades desconocidas en los sistemas operativos más utilizados. (Imagen Ilustrativa Infobae)

Mythos solo disponible para gigantes tecnológicos ante temor a ciberataques

La startup Anthropic PBC ha decidido restringir el acceso a su nuevo modelo de inteligencia artificial, Mythos, limitando su uso inicial a grandes empresas tecnológicas. Esta medida surge por la preocupación de que la capacidad de este sistema pueda facilitar ciberataques, dada su sofisticación.

De acuerdo con Bloomberg, la intención es que compañías como Amazon, Apple, Microsoft y Cisco experimenten primero con Mythos, aplicándolo a sus propios productos para identificar posibles vulnerabilidades y compartir resultados que contribuyan a fortalecer la seguridad digital.

Como parte de esta estrategia, Anthropic ha lanzado el Proyecto Glasswing, una colaboración que agrupa a referentes del sector tecnológico para someter Mythos a pruebas en entornos reales. El objetivo es detectar fallos de seguridad y anticipar riesgos antes de que el modelo esté disponible al público general.

Ilustración de ciberseguridad con usuario haciendo clic en anuncio de laptop; en segundo plano, código malicioso, hackers, alertas y transferencias bancarias interceptadas.
OpenAI también ha advertido sobre los riesgos cibernéticos asociados a sus propios modelos. (Imagen Ilustrativa Infobae)

Las empresas participantes tendrán acceso previo a Mythos y podrán utilizarlo para analizar la seguridad de sus sistemas y productos. Los descubrimientos de vulnerabilidades serán compartidos colectivamente, creando una red de defensa colaborativa ante amenazas derivadas del avance de la inteligencia artificial.

Según Anthropic, este enfoque busca prevenir que agentes maliciosos exploten debilidades aún no detectadas en los modelos más avanzados de IA.

La decisión de Anthropic responde a una creciente inquietud en la industria y los gobiernos respecto al potencial uso indebido de sistemas de inteligencia artificial avanzada. Estos temores se han visto reforzados por incidentes recientes, como el señalado por la propia Anthropic, donde un hacker empleó herramientas de IA para vulnerar sistemas del gobierno mexicano.

En la misma línea, OpenAI —principal competidor de Anthropic— ha advertido sobre los riesgos cibernéticos asociados a sus propios modelos y ha implementado iniciativas piloto orientadas a ofrecer protección prioritaria a defensores y no a atacantes.