Google detecta el primer ciberataque desarrollado completamente con inteligencia artificial

Investigadores de Google identificaron un exploit zero-day creado mediante modelos de lenguaje, marcando un nuevo escenario para la ciberseguridad

Guardar
Google icon
Google detectó un ciberataque realizó al 100% con inteligencia artificial.
Google detectó un ciberataque realizó al 100% con inteligencia artificial.

La inteligencia artificial ya no solo sirve para automatizar tareas o generar contenido, también comenzó a utilizarse para desarrollar ciberataques avanzados. Investigadores de Google confirmaron haber detectado el primer exploit zero-day creado mediante inteligencia artificial del que se tiene registro, un hallazgo que marca un nuevo escenario para la ciberseguridad global.

El descubrimiento fue realizado por el equipo de Google Threat Intelligence Group (GTIG), especializado en amenazas informáticas. Según explicó la compañía en un informe de seguridad, el ataque consistía en un script escrito en Python diseñado para vulnerar la autenticación en dos pasos (2FA) de una popular herramienta de administración web de código abierto.

PUBLICIDAD

El exploit buscaba saltarse la segunda capa de seguridad utilizada para proteger cuentas y sistemas, permitiendo a los atacantes acceder incluso cuando las contraseñas eran correctas. Google indicó que logró coordinar rápidamente con el proveedor afectado para detener la campaña antes de que se produjera un ataque masivo.

Dos analistas en un centro de ciberseguridad de Google observan pantallas con gráficos, código Python y una alerta de ataque generado por IA, en un ambiente moderno.
Analistas en un moderno centro de ciberseguridad de Google monitorean pantallas con código Python, gráficos de amenazas y alertas de "zero-day exploit" mientras detectan un ataque cibernético generado por IA. (Imagen Ilustrativa Infobae)

La empresa detectó que el código había sido generado con inteligencia artificial debido a varias características poco habituales en malware tradicional. Entre ellas se encontraban errores y “alucinaciones” típicas de los modelos de lenguaje, como puntuaciones CVSS inventadas, estructuras excesivamente académicas y fragmentos de documentación demasiado ordenados.

PUBLICIDAD

Los investigadores también encontraron docstrings educativos, menús de ayuda detallados y patrones similares a los materiales con los que suelen entrenarse los modelos de IA. Este tipo de elementos no suele aparecer en herramientas desarrolladas manualmente por ciberdelincuentes.

Aunque Google no encontró evidencia de que se utilizara Gemini, su propia inteligencia artificial, el caso representa la primera vez que la compañía identifica un exploit de día cero desarrollado mediante modelos de lenguaje.

Vista aérea de un centro de ciberseguridad de Google con analistas frente a múltiples pantallas que muestran código Python, gráficos de amenazas y alertas.
Investigadores de Google analizan posibles ciberataques. (Imagen Ilustrativa Infobae)

El informe también revela que la inteligencia artificial ayudó a descubrir una vulnerabilidad que había pasado desapercibida para las herramientas tradicionales de seguridad. El problema estaba relacionado con una suposición de confianza integrada directamente en la lógica del sistema de autenticación de dos factores.

La aparición de este tipo de ataques confirma una tendencia que especialistas en ciberseguridad vienen observando desde hace meses: los hackers están incorporando modelos de IA para acelerar procesos que antes requerían grandes cantidades de tiempo y trabajo humano.

Según el GTIG, los ciberdelincuentes utilizan inteligencia artificial para identificar vulnerabilidades, analizar infraestructuras empresariales y desarrollar ataques más precisos. Entre las capacidades detectadas están la generación automática de campañas de phishing personalizadas, el análisis de hardware específico de potenciales víctimas y la creación de perfiles detallados de empresas antes de ejecutar un ataque.

Un individuo encapuchado mira múltiples pantallas holográficas que muestran mapas de datos, código y alertas digitales en un entorno oscuro.
Un hacker encapuchado trabaja frente a múltiples pantallas holográficas en un entorno oscuro y futurista, mientras una inteligencia artificial genera líneas de código automáticamente para un ataque cibernético. (Imagen Ilustrativa Infobae)

Google también advirtió sobre el crecimiento de frameworks agénticos utilizados por grupos vinculados a China y Corea del Norte. Plataformas como Hexstrike y Strix emplean sistemas multiagente capaces de automatizar fases completas de una intrusión informática con una supervisión humana mínima.

Estos sistemas pueden coordinar tareas de reconocimiento, recopilación de datos y preparación de ataques de forma prácticamente autónoma. La IA no solo acelera el desarrollo del malware, sino que también permite crear amenazas más sofisticadas y difíciles de detectar.

Para superar las restricciones de seguridad de los modelos de lenguaje, muchos atacantes recurren al jailbreaking, una técnica que manipula las instrucciones de la IA para obtener respuestas prohibidas. Según Google, algunos hackers utilizan identidades falsas o simulan ser investigadores de seguridad para convencer a los modelos de generar código malicioso o analizar vulnerabilidades.

Se ve a un hacker con auriculares trabajando en un teclado frente a múltiples pantallas holográficas que muestran código, mapas de datos y gráficos en un entorno oscuro y futurista.
Un hacker trabaja en un ambiente futurista y oscuro, colaborando con una inteligencia artificial que genera código en múltiples pantallas holográficas con mapas de datos y alertas digitales. (Imagen Ilustrativa Infobae)

En otros casos, alimentan a la inteligencia artificial con repositorios completos de fallos de seguridad y exploits anteriores para mejorar la precisión de los payloads antes de lanzarlos contra objetivos reales.

El informe concluye que el uso ofensivo de la inteligencia artificial dejó de ser una práctica experimental y se está convirtiendo en una metodología cada vez más sistemática dentro del mundo del cibercrimen.

Aunque Google logró frenar este exploit antes de que causara daños masivos, la compañía considera que este caso representa apenas el inicio de una nueva etapa en la evolución de las amenazas digitales. Los especialistas advierten que la combinación entre inteligencia artificial y ciberataques podría aumentar la velocidad, escala y complejidad de futuras operaciones maliciosas en internet.

PUBLICIDAD

PUBLICIDAD