Mythos, el sistema más restringido de Anthropic, sería empleado por la Agencia de Seguridad Nacional de EE. UU. pese a desacuerdos militares

La empresa limitó su acceso a unas 40 organizaciones, ya que sus funciones avanzadas en ciberseguridad se consideran demasiado sensibles para una distribución abierta

Guardar
Anthropic - Mythos - IA - tecnología - 13 de abril
Mythos Preview, el modelo de Anthropic, no está disponible para el público general. (Composición Infobae: Europa Press / Difusión)

Mythos, el sistema más restringido de Anthropic, sería empleado por la Agencia de Seguridad Nacional de EE. UU. pese a desacuerdos militares. De acuerdo con información revelada por Axios, la NSA tendría acceso a Mythos Preview, un modelo avanzado de inteligencia artificial desarrollado por Anthropic y considerado de alta sensibilidad, en pleno contexto de conflicto entre la empresa y el Departamento de Defensa de Estados Unidos.

El uso de esta herramienta por parte de la agencia de inteligencia ocurre mientras persisten tensiones sobre la regulación y control de los modelos de IA en el entorno militar y de seguridad nacional.

Mythos Preview: características, acceso restringido y uso en la NSA

Mythos Preview, el modelo de Anthropic, no está disponible para el público general. La empresa limitó su acceso a unas 40 organizaciones seleccionadas, ya que sus funciones avanzadas en ciberseguridad se consideran demasiado sensibles para una distribución abierta.

Anthropic es una empresa de investigación y seguridad en inteligencia artificial (IA) estadounidense. 

REUTERS/Dado Ruvic
Anthropic es una empresa de investigación y seguridad en inteligencia artificial (IA) estadounidense. REUTERS/Dado Ruvic

De estos usuarios, solo se conocen públicamente 12 nombres; el resto permanece sin identificar. Axios informa que la Agencia de Seguridad Nacional de Estados Unidos sería uno de esos usuarios confidenciales, aunque aún no se sabe con exactitud para qué tareas utiliza la herramienta.

Fuentes consultadas por el medio citado señalan que otras entidades con acceso a Mythos Preview lo estarían utilizando principalmente para analizar infraestructuras propias, identificando vulnerabilidades explotables antes de que puedan ser aprovechadas por actores hostiles.

Además, organismos de inteligencia equivalentes en el Reino Unido estarían empleando este modelo a través del AI Security Institute británico.

Claude Mythos es una IA que puede detectas fallos informáticos.
Claude Mythos es una IA que puede detectas fallos informáticos.

Ni Anthropic, ni el Pentágono, ni la propia NSA han hecho comentarios oficiales sobre la información difundida, lo que añade un componente de secretismo y expectativa acerca de la verdadera dimensión y alcance del uso de Mythos Preview en el ámbito de la inteligencia estadounidense.

Disputa entre Anthropic y el Departamento de Defensa: contexto y repercusiones

La noticia del acceso de la NSA a Mythos Preview se produce mientras continúa la disputa legal y política entre Anthropic y el Departamento de Defensa. El conflicto surgió cuando la empresa se negó a flexibilizar las restricciones sobre el uso de sus modelos de IA, lo que llevó a Defensa a señalar a Anthropic como un riesgo para la cadena de suministro nacional y a presionar para eliminar los límites de utilización.

Tras la negativa de Anthropic a modificar sus condiciones, el caso escaló hasta los tribunales, donde el Pentágono argumentó que las “líneas rojas” impuestas por la tecnológica representaban una amenaza inaceptable para la seguridad nacional.

(Imagen Ilustrativa Infobae)
La aparente utilización de Mythos Preview por parte de la NSA introduce una paradoja dentro del propio gobierno estadounidense. (Imagen Ilustrativa Infobae)

Este enfrentamiento ha generado un ambiente de tensión entre la compañía y las autoridades militares, en medio de un debate más amplio sobre el control, la ética y el alcance de las aplicaciones avanzadas de inteligencia artificial en áreas sensibles.

En este contexto de litigio, la aparente utilización de Mythos Preview por parte de la NSA introduce una paradoja dentro del propio gobierno estadounidense. Mientras el Departamento de Defensa sostiene su disputa con Anthropic, una de las agencias más estratégicas del aparato de inteligencia estaría beneficiándose de la tecnología desarrollada por la misma empresa.

Reino Unido analiza riesgos de la IA Claude Mythos Preview

Los principales organismos financieros del Reino Unido, junto al Centro Nacional de Ciberseguridad y las entidades bancarias más relevantes del país, han iniciado conversaciones para analizar los posibles riesgos que presenta Claude Mythos Preview, el modelo de inteligencia artificial creado por Anthropic, según señala el Financial Times.

Vista lateral de una figura humana digital de puntos y líneas azules interactuando con tres monitores de computadora que muestran gráficos, datos y un "PERFIL FALSO".
El modelo Mythos ya ha logrado identificar miles de fallos en sistemas operativos, navegadores y programas utilizados de manera masiva. (Imagen Ilustrativa Infobae)

Entre las autoridades involucradas se encuentran el Banco de Inglaterra y la Autoridad de Conducta Financiera (FCA), que buscan identificar vulnerabilidades que esta nueva tecnología de IA podría introducir en infraestructuras digitales críticas.

El debate surge en el contexto del Project Glasswing, una iniciativa de Anthropic que permite a organizaciones seleccionadas implementar Mythos en tareas defensivas de ciberseguridad. El objetivo es ayudar a detectar y mitigar amenazas en sectores clave.

De acuerdo con una reciente publicación de Anthropic, el modelo Mythos ya ha logrado identificar miles de fallos en sistemas operativos, navegadores y programas utilizados de manera masiva.