
La inteligencia artificial ya no solo sirve para automatizar tareas o generar contenido, también comenzó a utilizarse para desarrollar ciberataques avanzados. Investigadores de Google confirmaron haber detectado el primer exploit zero-day creado mediante inteligencia artificial del que se tiene registro, un hallazgo que marca un nuevo escenario para la ciberseguridad global.
El descubrimiento fue realizado por el equipo de Google Threat Intelligence Group (GTIG), especializado en amenazas informáticas. Según explicó la compañía en un informe de seguridad, el ataque consistía en un script escrito en Python diseñado para vulnerar la autenticación en dos pasos (2FA) de una popular herramienta de administración web de código abierto.
PUBLICIDAD
El exploit buscaba saltarse la segunda capa de seguridad utilizada para proteger cuentas y sistemas, permitiendo a los atacantes acceder incluso cuando las contraseñas eran correctas. Google indicó que logró coordinar rápidamente con el proveedor afectado para detener la campaña antes de que se produjera un ataque masivo.

La empresa detectó que el código había sido generado con inteligencia artificial debido a varias características poco habituales en malware tradicional. Entre ellas se encontraban errores y “alucinaciones” típicas de los modelos de lenguaje, como puntuaciones CVSS inventadas, estructuras excesivamente académicas y fragmentos de documentación demasiado ordenados.
PUBLICIDAD
Los investigadores también encontraron docstrings educativos, menús de ayuda detallados y patrones similares a los materiales con los que suelen entrenarse los modelos de IA. Este tipo de elementos no suele aparecer en herramientas desarrolladas manualmente por ciberdelincuentes.
Aunque Google no encontró evidencia de que se utilizara Gemini, su propia inteligencia artificial, el caso representa la primera vez que la compañía identifica un exploit de día cero desarrollado mediante modelos de lenguaje.
PUBLICIDAD

El informe también revela que la inteligencia artificial ayudó a descubrir una vulnerabilidad que había pasado desapercibida para las herramientas tradicionales de seguridad. El problema estaba relacionado con una suposición de confianza integrada directamente en la lógica del sistema de autenticación de dos factores.
La aparición de este tipo de ataques confirma una tendencia que especialistas en ciberseguridad vienen observando desde hace meses: los hackers están incorporando modelos de IA para acelerar procesos que antes requerían grandes cantidades de tiempo y trabajo humano.
PUBLICIDAD
Según el GTIG, los ciberdelincuentes utilizan inteligencia artificial para identificar vulnerabilidades, analizar infraestructuras empresariales y desarrollar ataques más precisos. Entre las capacidades detectadas están la generación automática de campañas de phishing personalizadas, el análisis de hardware específico de potenciales víctimas y la creación de perfiles detallados de empresas antes de ejecutar un ataque.

Google también advirtió sobre el crecimiento de frameworks agénticos utilizados por grupos vinculados a China y Corea del Norte. Plataformas como Hexstrike y Strix emplean sistemas multiagente capaces de automatizar fases completas de una intrusión informática con una supervisión humana mínima.
PUBLICIDAD
Estos sistemas pueden coordinar tareas de reconocimiento, recopilación de datos y preparación de ataques de forma prácticamente autónoma. La IA no solo acelera el desarrollo del malware, sino que también permite crear amenazas más sofisticadas y difíciles de detectar.
Para superar las restricciones de seguridad de los modelos de lenguaje, muchos atacantes recurren al jailbreaking, una técnica que manipula las instrucciones de la IA para obtener respuestas prohibidas. Según Google, algunos hackers utilizan identidades falsas o simulan ser investigadores de seguridad para convencer a los modelos de generar código malicioso o analizar vulnerabilidades.
PUBLICIDAD

En otros casos, alimentan a la inteligencia artificial con repositorios completos de fallos de seguridad y exploits anteriores para mejorar la precisión de los payloads antes de lanzarlos contra objetivos reales.
El informe concluye que el uso ofensivo de la inteligencia artificial dejó de ser una práctica experimental y se está convirtiendo en una metodología cada vez más sistemática dentro del mundo del cibercrimen.
PUBLICIDAD
Aunque Google logró frenar este exploit antes de que causara daños masivos, la compañía considera que este caso representa apenas el inicio de una nueva etapa en la evolución de las amenazas digitales. Los especialistas advierten que la combinación entre inteligencia artificial y ciberataques podría aumentar la velocidad, escala y complejidad de futuras operaciones maliciosas en internet.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Cómo simular con una foto tuya que apareces en una transmisión oficial del Mundial 2026 usando IA: guía paso a paso
Fotos, prompts y apps de animación permiten a cualquier usuario crear secuencias realistas en estadios llenos, llevando la pasión futbolera a nuevas fronteras

Cómo ganar dinero en YouTube y convertirte en influencer: claves para monetizar tu canal
El éxito requiere enfoque en nichos, publicaciones regulares y una gestión profesional, aprovechando el alcance y las herramientas de analítica para crecer de forma sostenible

¿Es seguro limpiar la lavadora con vinagre?, esto dicen los fabricantes
Aunque el vinagre es popular en redes por sus propiedades desinfectantes, los expertos advierten que su uso frecuente puede dañar gomas y mangueras del electrodoméstico

Fraudes corporativos con IA: así copian voces y rostros de directivos para cometer estafas
El crecimiento de los deepfakes corporativos está impulsando una nueva generación de fraudes financieros altamente personalizados

Google reemplaza Veo con Omni, una IA capaz de crear videos hiperrealistas
Omni llegará integrada en Gemini y apunta a reemplazar a Veo con herramientas más avanzadas de creación y edición audiovisual mediante IA



