La inteligencia artificial ya no solo sirve para automatizar tareas o generar contenido, también comenzó a utilizarse para desarrollar ciberataques avanzados. Investigadores de Google confirmaron haber detectado el primer exploit zero-day creado mediante inteligencia artificial del que se tiene registro, un hallazgo que marca un nuevo escenario para la ciberseguridad global.
El descubrimiento fue realizado por el equipo de Google Threat Intelligence Group (GTIG), especializado en amenazas informáticas. Según explicó la compañía en un informe de seguridad, el ataque consistía en un script escrito en Python diseñado para vulnerar la autenticación en dos pasos (2FA) de una popular herramienta de administración web de código abierto.
El exploit buscaba saltarse la segunda capa de seguridad utilizada para proteger cuentas y sistemas, permitiendo a los atacantes acceder incluso cuando las contraseñas eran correctas. Google indicó que logró coordinar rápidamente con el proveedor afectado para detener la campaña antes de que se produjera un ataque masivo.
PUBLICIDAD
La empresa detectó que el código había sido generado con inteligencia artificial debido a varias características poco habituales en malware tradicional. Entre ellas se encontraban errores y “alucinaciones” típicas de los modelos de lenguaje, como puntuaciones CVSS inventadas, estructuras excesivamente académicas y fragmentos de documentación demasiado ordenados.
Los investigadores también encontraron docstrings educativos, menús de ayuda detallados y patrones similares a los materiales con los que suelen entrenarse los modelos de IA. Este tipo de elementos no suele aparecer en herramientas desarrolladas manualmente por ciberdelincuentes.
Aunque Google no encontró evidencia de que se utilizara Gemini, su propia inteligencia artificial, el caso representa la primera vez que la compañía identifica un exploit de día cero desarrollado mediante modelos de lenguaje.
PUBLICIDAD
El informe también revela que la inteligencia artificial ayudó a descubrir una vulnerabilidad que había pasado desapercibida para las herramientas tradicionales de seguridad. El problema estaba relacionado con una suposición de confianza integrada directamente en la lógica del sistema de autenticación de dos factores.
La aparición de este tipo de ataques confirma una tendencia que especialistas en ciberseguridad vienen observando desde hace meses: los hackers están incorporando modelos de IA para acelerar procesos que antes requerían grandes cantidades de tiempo y trabajo humano.
Según el GTIG, los ciberdelincuentes utilizan inteligencia artificial para identificar vulnerabilidades, analizar infraestructuras empresariales y desarrollar ataques más precisos. Entre las capacidades detectadas están la generación automática de campañas de phishing personalizadas, el análisis de hardware específico de potenciales víctimas y la creación de perfiles detallados de empresas antes de ejecutar un ataque.
PUBLICIDAD
Google también advirtió sobre el crecimiento de frameworks agénticos utilizados por grupos vinculados a China y Corea del Norte. Plataformas como Hexstrike y Strix emplean sistemas multiagente capaces de automatizar fases completas de una intrusión informática con una supervisión humana mínima.
Estos sistemas pueden coordinar tareas de reconocimiento, recopilación de datos y preparación de ataques de forma prácticamente autónoma. La IA no solo acelera el desarrollo del malware, sino que también permite crear amenazas más sofisticadas y difíciles de detectar.
Para superar las restricciones de seguridad de los modelos de lenguaje, muchos atacantes recurren al jailbreaking, una técnica que manipula las instrucciones de la IA para obtener respuestas prohibidas. Según Google, algunos hackers utilizan identidades falsas o simulan ser investigadores de seguridad para convencer a los modelos de generar código malicioso o analizar vulnerabilidades.
PUBLICIDAD
En otros casos, alimentan a la inteligencia artificial con repositorios completos de fallos de seguridad y exploits anteriores para mejorar la precisión de los payloads antes de lanzarlos contra objetivos reales.
El informe concluye que el uso ofensivo de la inteligencia artificial dejó de ser una práctica experimental y se está convirtiendo en una metodología cada vez más sistemática dentro del mundo del cibercrimen.
Aunque Google logró frenar este exploit antes de que causara daños masivos, la compañía considera que este caso representa apenas el inicio de una nueva etapa en la evolución de las amenazas digitales. Los especialistas advierten que la combinación entre inteligencia artificial y ciberataques podría aumentar la velocidad, escala y complejidad de futuras operaciones maliciosas en internet.
PUBLICIDAD