OpenAI presenta una IA especializada en ciberseguridad: así busca hacerle frente a Claude Mythos

OpenAI lanzó GPT-5.4-Cyber, un modelo especializado en detectar malware y vulnerabilidades

Guardar
OpenAI lanza una nueva IA enfocada en ciberseguridad para hacerle frente al nuevo Claude Mythos.
OpenAI lanza una nueva IA enfocada en ciberseguridad para hacerle frente al nuevo Claude Mythos.

OpenAI anunció el inicio del despliegue de GPT-5.4-Cyber, una versión optimizada de su modelo enfocada específicamente en tareas de ciberseguridad defensiva. El lanzamiento se produce apenas una semana después de que Anthropic presentara Mythos Preview, un sistema similar cuyo acceso fue restringido por los riesgos asociados a su uso indebido.

La nueva variante de OpenAI busca fortalecer la protección de sistemas informáticos mediante capacidades avanzadas de análisis de software, incluyendo ingeniería inversa binaria. Esta función permite examinar programas compilados sin necesidad de acceder al código fuente original, facilitando la detección de malware y vulnerabilidades críticas.

El acceso inicial a GPT-5.4-Cyber está limitado a los participantes del programa Trusted Access for Cyber, una iniciativa lanzada en febrero que incluye una subvención de 10 millones de dólares en créditos para el uso de API. Según la compañía, el modelo ya está siendo probado por miles de profesionales de seguridad, tras una primera fase con cientos de usuarios.

OpenAI laznó GPT-5.4-Cyber, una herramienta de IA que detecta vulnerabilidades en los software. REUTERS/Dado Ruvic/Ilustración/Foto de archivo
OpenAI laznó GPT-5.4-Cyber, una herramienta de IA que detecta vulnerabilidades en los software. REUTERS/Dado Ruvic/Ilustración/Foto de archivo

Una respuesta directa a Mythos

El anuncio de OpenAI llega en un contexto de creciente competencia en el desarrollo de inteligencia artificial aplicada a la seguridad. Anthropic había generado debate en el sector tras lanzar Mythos Preview con acceso extremadamente limitado a unas 40 organizaciones seleccionadas, argumentando que este tipo de tecnología podría ser peligrosa en manos equivocadas.

Frente a este enfoque, OpenAI opta por una estrategia más abierta, basada en la verificación de identidad de los usuarios y en mecanismos de supervisión. La compañía sostiene que ampliar el acceso a herramientas de seguridad fortalece la defensa global frente a amenazas cibernéticas.

“Este es un deporte de equipo, y debemos asegurarnos de que cada equipo tenga la capacidad de proteger sus sistemas”, señaló Fouad Matin, investigador de seguridad en OpenAI, al explicar la filosofía detrás del despliegue.

Claude Mythos es una IA que puede detectas fallos informáticos.
Claude Mythos es una IA que puede detectas fallos informáticos.

Capacidades técnicas y enfoque defensivo

Uno de los elementos más destacados de GPT-5.4-Cyber es su capacidad para analizar archivos binarios, lo que resulta clave en escenarios donde el código fuente no está disponible. Esta funcionalidad permite identificar comportamientos sospechosos, vulnerabilidades y posibles puertas traseras en software ya compilado.

OpenAI también destacó el papel de Codex Security, su solución previa en este ámbito, que ha contribuido a corregir más de 3.000 vulnerabilidades críticas desde su implementación ampliada. Este antecedente refuerza la apuesta de la compañía por integrar inteligencia artificial en la defensa de infraestructuras digitales.

A pesar de su enfoque especializado, la empresa asegura que el modelo mantiene las salvaguardas necesarias para evitar usos maliciosos. Según OpenAI, las medidas de seguridad actuales son suficientes para mitigar riesgos en un despliegue progresivo.

OpenAI busca competir con Claude y sigue lanzando nuevos modelos de IA. REUTERS/Bhawika Chhabra/Foto de archivo
OpenAI busca competir con Claude y sigue lanzando nuevos modelos de IA. REUTERS/Bhawika Chhabra/Foto de archivo

Un debate abierto en la industria

La aparición de modelos como GPT-5.4-Cyber y Mythos refleja una discusión más amplia dentro del sector tecnológico sobre cómo gestionar herramientas de IA con potencial ofensivo.

Por un lado, algunos expertos defienden las restricciones estrictas, argumentando que limitar el acceso reduce la posibilidad de que actores maliciosos aprovechen estas capacidades. Por otro, existe una corriente que considera que democratizar el acceso a estas herramientas permite a más defensores proteger sistemas y responder a amenazas de manera efectiva.

Este debate también involucra a la comunidad de software de código abierto, que suele abogar por una mayor transparencia y disponibilidad de tecnologías críticas.

El acceso a la nueva IA de OpenAI se encuentra limitado a usuarios que han participado en su programa Trusted Access for Cyber. REUTERS/Dado Ruvic/Illustration/File Photo
El acceso a la nueva IA de OpenAI se encuentra limitado a usuarios que han participado en su programa Trusted Access for Cyber. REUTERS/Dado Ruvic/Illustration/File Photo

Lo que viene

El despliegue de GPT-5.4-Cyber marca un nuevo capítulo en la evolución de la inteligencia artificial aplicada a la ciberseguridad. A medida que estas herramientas se vuelven más sofisticadas, también crece la necesidad de establecer marcos claros para su uso responsable.

Con esta iniciativa, OpenAI busca posicionarse como un actor clave en la defensa digital, apostando por un equilibrio entre acceso controlado y expansión progresiva. La competencia con Anthropic, lejos de cerrarse, parece intensificarse en un terreno donde la innovación y la seguridad avanzan de forma paral