Por qué Claude Mythos asustó a 12 gigantes tecnológicos, aunque el problema real es otro

Apple, Google, Microsoft, Amazon y otras 8 compañías firmaron una coalición de urgencia con Anthropic por un modelo de inteligencia artificial capaz de encontrar vulnerabilidades solo. Un análisis publicado en Le Grand Continent reveló que la amenaza real no necesita ese modelo: ya está pasando

Guardar
Múltiples monitores muestran un mapa holográfico de América Latina con datos de ataque y gráficos. Varias personas operan teclados en un entorno oscuro.
Un estudio de Trend Micro reveló un preocupante aumento de servidores de inteligencia artificial expuestos en internet sin protección entre enero y julio de 2025 (Imagen Ilustrativa Infobae)

Hace una semana escribí sobre por qué Apple, Google, Microsoft, Amazon, JPMorgan y otras ocho empresas corrieron a reunirse con Anthropic. El motivo fue un modelo llamado Claude Mythos Preview que, en manos de ingenieros sin entrenamiento en seguridad, encontró en una noche bugs escondidos durante 27 años.

100 millones de dólares, coalición y comunicado prolijo. Sonó a defensa colectiva. Era otra cosa: era pánico.

Esta semana, el analista Victor Storchan publicó en el medio francés Le Grand Continent un análisis detallado sobre ese mismo modelo y el ecosistema que lo rodea. Lo leí dos veces. Y la conclusión, incómoda pero inevitable, es que Mythos es el titular. El problema real no necesita esperarlo.

La puerta abierta que nadie mira

En julio del año pasado, la empresa de ciberseguridad Trend Micro publicó una investigación que casi nadie leyó. Detectaron cerca de 500 servidores que conectan agentes de inteligencia artificial con bases de datos corporativas, expuestos a internet sin ninguna protección. Sin contraseña. Sin autenticación. Nada. Cualquiera con un rato libre podía entrar y mirar información privada de empresas enteras.

Vista de una gran sala de conferencias con ejecutivos sentados frente a una pantalla curva que muestra código, candados abiertos, alertas triangulares y una figura abstracta de IA.
Las grandes tecnológicas como Apple, Google y Microsoft reaccionaron con urgencia ante el modelo Claude Mythos Preview de Anthropic por su capacidad para detectar vulnerabilidades históricas (Imagen Ilustrativa Infobae)

Ese número es preocupante, pero no es lo más grave. Lo más grave es la tendencia. El uso de esos servidores pasó de 714 a más de 16.000 entre enero y julio de 2025, según la misma empresa. Una compañía británica distinta, Bitsight, encontró en diciembre casi mil expuestos sin autorización, algunos conectados a sistemas internos que permiten ejecutar comandos, administrar bases de clientes o enviar mensajes masivos por WhatsApp.

Ninguno de esos servidores los dejó abiertos Claude Mythos. Los dejaron abiertos las empresas que integraron agentes de inteligencia artificial a toda velocidad, sin pensar dos veces en quién podía entrar por atrás.

La amenaza no necesita un modelo sobrehumano. Necesita que alguien toque el picaporte.

El ataque ya no entra por el modelo

Durante años pensamos en la seguridad en inteligencia artificial como ciencia ficción. La máquina que se rebela. El programa que rompe sus propias reglas. El sistema que decide volverse contra nosotros. Imaginamos al intruso entrando por la ventana del modelo.

Vista lateral de una figura humana digital de puntos y líneas azules interactuando con tres monitores de computadora que muestran gráficos, datos y un "PERFIL FALSO".
La startup Mercor, proveedora de OpenAI y Anthropic, sufrió el robo de 4 terabytes de información valiosa tras el compromiso de una librería de código abierto (Imagen Ilustrativa Infobae)

El intruso entra por otro lado.

El 31 de marzo de este año, un grupo de hackers comprometió durante unos 40 minutos una librería de código abierto llamada LiteLLM, que conecta aplicaciones con modelos de inteligencia artificial y se descarga 97 millones de veces por mes. Fue una ventana chica. Alcanzó.

La startup Mercor, valuada en 10.000 millones de dólares y proveedora de OpenAI y Anthropic, confirmó días después que los atacantes se llevaron 4 terabytes de información: código fuente, base de datos de usuarios, entrevistas en video y documentos de identidad, incluyendo escaneos de pasaportes de 40.000 contratistas.

El mismo día, otro grupo distinto publicó versiones maliciosas de Axios, la biblioteca de JavaScript más popular del mundo, con más de 100 millones de descargas semanales. Google atribuyó ese ataque a un actor vinculado al régimen de Corea del Norte. Microsoft confirmó la atribución.

Ninguno de esos ataques necesitó a Mythos. Necesitó descuido.

Un pasillo en un centro de datos con filas de servidores iluminados en azul. Hay gráficos digitales superpuestos que muestran datos, esquemas y candados rojos.
El modelo Claude Opus 4.6, según Anthropic, identificó más de 500 vulnerabilidades graves en software de código abierto, superando ampliamente capacidades de explotación maliciosa (Imagen Ilustrativa Infobae)

Y lo más inquietante, que también documenta Storchan: en febrero la propia Anthropic denunció públicamente que tres laboratorios chinos de inteligencia artificial, DeepSeek, Moonshot y MiniMax, estuvieron meses extrayendo las capacidades de Claude a través de 24.000 cuentas falsas y 16 millones de consultas, para entrenar sus propios modelos a un costo muy inferior. Los laboratorios que están construyendo la amenaza que se viene ya son víctimas de una que está acá.

La paradoja del modelo que encuentra más de lo que nadie busca

Acá viene la parte incómoda.

La propia Anthropic publicó en febrero que su modelo anterior, Claude Opus 4.6, ya había encontrado más de 500 vulnerabilidades graves en software de código abierto, muchas de ellas escondidas durante décadas. Y el mismo informe aclara algo decisivo: Opus 4.6 es mucho mejor identificando y corrigiendo vulnerabilidades que explotándolas. En una prueba sobre el navegador Firefox, el modelo encontró los fallos, pero logró convertirlos en ataques reales solamente dos veces en cientos de intentos.

Esta realidad, traducida: los modelos que están disponibles hoy, al alcance de cualquier empresa con una tarjeta de crédito, ya son herramientas defensivas extraordinarias. Una compañía que los use para auditar su propio sistema va a encontrar cientos de agujeros antes que un atacante.

El problema no es que falte tecnología. Es que la mayoría de las organizaciones todavía no integró estos procesos ni siquiera con las herramientas que están disponibles para cualquiera. Están esperando el modelo perfecto mientras dejan la puerta del garaje abierta.

Lo comprado no te salva. Lo gobernado, sí

Sala de servidores oscura con alertas rojas en pantallas. Una IA abstracta central proyecta líneas de datos verdes hacia los servidores, mostrando vulnerabilidades.
Bitsight detectó hasta mil servidores de inteligencia artificial sin autorización conectados a sistemas internos críticos en diciembre pasado, lo que evidencia riesgos para bases de clientes y operaciones empresariales (Imagen Ilustrativa Infobae)

Hace unos días escribí que la inteligencia artificial que se compra y se enchufa sin liderazgo interno no salva a nadie. La tesis se refuerza esta semana en una dirección nueva. La inteligencia artificial que se compra y se enchufa sin gobernar tampoco salva. Expone.

El diferencial real de una empresa en 2026 no va a ser qué modelo usa. Va a ser cómo controla los permisos de sus agentes, cómo audita sus integraciones con servicios externos, cómo evita que un proveedor comprometido arrastre a toda la empresa, cómo detecta en tiempo real cuándo alguien metió instrucciones ocultas en un sitio web que un agente suyo lee todos los días.

Cosas aburridas. Cosas que ningún evento de lanzamiento va a celebrar. Cosas que separan a las empresas que van a sobrevivir esta década de las que van a aparecer en titulares por las razones equivocadas.

Storchan cierra su análisis en Le Grand Continent con una advertencia que me parece la más importante de toda su pieza: el reto no es esperar los sistemas más avanzados. Es aprovechar desde hoy los modelos ya disponibles para reforzar la seguridad. Exactamente al revés de lo que la mayoría está haciendo.

El problema nunca fue el modelo

Un hombre en traje gris interactúa con pantallas holográficas azules que muestran datos de seguridad y un candado digital con "ACCESS GRANTED".
Expertos advierten que el diferencial competitivo en 2026 será la gobernanza y el control de permisos sobre los agentes de inteligencia artificial más que la tecnología adquirida (Imagen Ilustrativa Infobae)

Preguntarse si Mythos es demasiado peligroso es la pregunta fácil. Permite no hacer nada mientras se espera que Anthropic, OpenAI o Google resuelvan el asunto por uno.

La pregunta incómoda es otra. ¿Cuántos agentes de inteligencia artificial desplegó tu empresa el año pasado? ¿Cuántos pueden leer información sensible? ¿Quién los audita? ¿Qué pasa si alguien le pone una instrucción oculta en una fuente que tu agente consume todos los días?

Si no sabés responder, el problema no es que la inteligencia artificial sea demasiado potente. Es que contrataste al modelo y no contrataste al que tenía que vigilar cómo lo usás.

Las doce empresas que corrieron a Anthropic entendieron algo que a muchos directorios todavía no les cayó. No fueron a colaborar. Fueron a prepararse.

La pregunta es cuánto va a tardar el resto en hacer lo mismo.