
Hace una semana escribí sobre por qué Apple, Google, Microsoft, Amazon, JPMorgan y otras ocho empresas corrieron a reunirse con Anthropic. El motivo fue un modelo llamado Claude Mythos Preview que, en manos de ingenieros sin entrenamiento en seguridad, encontró en una noche bugs escondidos durante 27 años.
100 millones de dólares, coalición y comunicado prolijo. Sonó a defensa colectiva. Era otra cosa: era pánico.
Esta semana, el analista Victor Storchan publicó en el medio francés Le Grand Continent un análisis detallado sobre ese mismo modelo y el ecosistema que lo rodea. Lo leí dos veces. Y la conclusión, incómoda pero inevitable, es que Mythos es el titular. El problema real no necesita esperarlo.
La puerta abierta que nadie mira
En julio del año pasado, la empresa de ciberseguridad Trend Micro publicó una investigación que casi nadie leyó. Detectaron cerca de 500 servidores que conectan agentes de inteligencia artificial con bases de datos corporativas, expuestos a internet sin ninguna protección. Sin contraseña. Sin autenticación. Nada. Cualquiera con un rato libre podía entrar y mirar información privada de empresas enteras.

Ese número es preocupante, pero no es lo más grave. Lo más grave es la tendencia. El uso de esos servidores pasó de 714 a más de 16.000 entre enero y julio de 2025, según la misma empresa. Una compañía británica distinta, Bitsight, encontró en diciembre casi mil expuestos sin autorización, algunos conectados a sistemas internos que permiten ejecutar comandos, administrar bases de clientes o enviar mensajes masivos por WhatsApp.
Ninguno de esos servidores los dejó abiertos Claude Mythos. Los dejaron abiertos las empresas que integraron agentes de inteligencia artificial a toda velocidad, sin pensar dos veces en quién podía entrar por atrás.
La amenaza no necesita un modelo sobrehumano. Necesita que alguien toque el picaporte.
El ataque ya no entra por el modelo
Durante años pensamos en la seguridad en inteligencia artificial como ciencia ficción. La máquina que se rebela. El programa que rompe sus propias reglas. El sistema que decide volverse contra nosotros. Imaginamos al intruso entrando por la ventana del modelo.

El intruso entra por otro lado.
El 31 de marzo de este año, un grupo de hackers comprometió durante unos 40 minutos una librería de código abierto llamada LiteLLM, que conecta aplicaciones con modelos de inteligencia artificial y se descarga 97 millones de veces por mes. Fue una ventana chica. Alcanzó.
La startup Mercor, valuada en 10.000 millones de dólares y proveedora de OpenAI y Anthropic, confirmó días después que los atacantes se llevaron 4 terabytes de información: código fuente, base de datos de usuarios, entrevistas en video y documentos de identidad, incluyendo escaneos de pasaportes de 40.000 contratistas.
El mismo día, otro grupo distinto publicó versiones maliciosas de Axios, la biblioteca de JavaScript más popular del mundo, con más de 100 millones de descargas semanales. Google atribuyó ese ataque a un actor vinculado al régimen de Corea del Norte. Microsoft confirmó la atribución.
Ninguno de esos ataques necesitó a Mythos. Necesitó descuido.

Y lo más inquietante, que también documenta Storchan: en febrero la propia Anthropic denunció públicamente que tres laboratorios chinos de inteligencia artificial, DeepSeek, Moonshot y MiniMax, estuvieron meses extrayendo las capacidades de Claude a través de 24.000 cuentas falsas y 16 millones de consultas, para entrenar sus propios modelos a un costo muy inferior. Los laboratorios que están construyendo la amenaza que se viene ya son víctimas de una que está acá.
La paradoja del modelo que encuentra más de lo que nadie busca
Acá viene la parte incómoda.
La propia Anthropic publicó en febrero que su modelo anterior, Claude Opus 4.6, ya había encontrado más de 500 vulnerabilidades graves en software de código abierto, muchas de ellas escondidas durante décadas. Y el mismo informe aclara algo decisivo: Opus 4.6 es mucho mejor identificando y corrigiendo vulnerabilidades que explotándolas. En una prueba sobre el navegador Firefox, el modelo encontró los fallos, pero logró convertirlos en ataques reales solamente dos veces en cientos de intentos.
Esta realidad, traducida: los modelos que están disponibles hoy, al alcance de cualquier empresa con una tarjeta de crédito, ya son herramientas defensivas extraordinarias. Una compañía que los use para auditar su propio sistema va a encontrar cientos de agujeros antes que un atacante.
El problema no es que falte tecnología. Es que la mayoría de las organizaciones todavía no integró estos procesos ni siquiera con las herramientas que están disponibles para cualquiera. Están esperando el modelo perfecto mientras dejan la puerta del garaje abierta.
Lo comprado no te salva. Lo gobernado, sí

Hace unos días escribí que la inteligencia artificial que se compra y se enchufa sin liderazgo interno no salva a nadie. La tesis se refuerza esta semana en una dirección nueva. La inteligencia artificial que se compra y se enchufa sin gobernar tampoco salva. Expone.
El diferencial real de una empresa en 2026 no va a ser qué modelo usa. Va a ser cómo controla los permisos de sus agentes, cómo audita sus integraciones con servicios externos, cómo evita que un proveedor comprometido arrastre a toda la empresa, cómo detecta en tiempo real cuándo alguien metió instrucciones ocultas en un sitio web que un agente suyo lee todos los días.
Cosas aburridas. Cosas que ningún evento de lanzamiento va a celebrar. Cosas que separan a las empresas que van a sobrevivir esta década de las que van a aparecer en titulares por las razones equivocadas.
Storchan cierra su análisis en Le Grand Continent con una advertencia que me parece la más importante de toda su pieza: el reto no es esperar los sistemas más avanzados. Es aprovechar desde hoy los modelos ya disponibles para reforzar la seguridad. Exactamente al revés de lo que la mayoría está haciendo.
El problema nunca fue el modelo

Preguntarse si Mythos es demasiado peligroso es la pregunta fácil. Permite no hacer nada mientras se espera que Anthropic, OpenAI o Google resuelvan el asunto por uno.
La pregunta incómoda es otra. ¿Cuántos agentes de inteligencia artificial desplegó tu empresa el año pasado? ¿Cuántos pueden leer información sensible? ¿Quién los audita? ¿Qué pasa si alguien le pone una instrucción oculta en una fuente que tu agente consume todos los días?
Si no sabés responder, el problema no es que la inteligencia artificial sea demasiado potente. Es que contrataste al modelo y no contrataste al que tenía que vigilar cómo lo usás.
Las doce empresas que corrieron a Anthropic entendieron algo que a muchos directorios todavía no les cayó. No fueron a colaborar. Fueron a prepararse.
La pregunta es cuánto va a tardar el resto en hacer lo mismo.
Últimas Noticias
¿Deberían los robots tener derechos y obligaciones?
Una revisión de los antecedentes legales de seres no humanos, incluidos juicios a animales, impulsa reflexiones acerca de la asignación de responsabilidades y derechos a agentes electrónicos autónomos en el mundo moderno

Cómo empezar a invertir en criptomonedas y cómo funcionan
Así se han movido las criptomonedas en las últimas horas

Con la nueva IA de Google, los robots podrán comprender, planificar y actuar en entornos reales
La tecnología ya está disponible para desarrolladores a través de la API de Gemini y Google AI Studio

ChatGPT no está perdiendo el mercado, el mercado dejó de ser de ChatGPT
Similarweb publicó los datos de marzo 2026 y el titular fácil habla de la caída de OpenAI, pero el movimiento que reordena la industria está más abajo: Claude casi triplicó su cuota en un solo trimestre y Gemini creció 643% interanual

Qué adaptadores necesitas para conectar VGA a HDMI o viceversa
Es importante elegir el adaptador correcto para evitar pérdida de calidad o incompatibilidades



