La IA protege a los ciberdelincuentes: los ataques generados con IA borran la "huella digital" y complican la atribución

Especialistas de Kaspersky y Check Point Research advierten que el uso de inteligencia artificial en delitos informáticos dificulta identificar a los responsables, elimina errores típicos y permite desarrollar herramientas sofisticadas en días, lo que aumenta los riesgos para la ciberseguridad global

Guardar

El desarrollo de herramientas maliciosas ha experimentado una aceleración significativa, ilustrada por casos donde programas como VoidLink y Slopoly, con altos grados de complejidad, fueron desarrollados por individuos usando inteligencia artificial en un tiempo muy inferior al que solían requerir equipos completos durante meses. Según informó el equipo Global Research and Analysis Team (GReAT) de Kaspersky, la generalización de la inteligencia artificial generativa en la esfera de los delitos informáticos complicará notablemente la identificación de los actores responsables y transformará el panorama de la ciberseguridad global durante el 2026.

Tal como destacó el informe anual sobre Predicciones de Amenazas Persistentes Avanzadas (APT), publicado por Kaspersky, la proliferación de la IA entre los ciberdelincuentes no solo permite crear ataques más precisos y difíciles de detectar, sino que también elimina las pistas tradicionales que facilitan la atribución de responsabilidades. De acuerdo con el análisis de Kaspersky, los ataques generados mediante IA, desde el código malicioso hasta los mensajes de phishing, carecen de los errores lingüísticos o patrones de programación distintivos que antes permitían a los especialistas identificar el origen de los ataques o vincularlos a grupos específicos.

La compañía detalló que en procesos anteriores, los investigadores en ciberseguridad solían estudiar detalles como el estilo de codificación y los errores característicos de hablantes nativos de distintos idiomas, o incluso comentarios internos en el código, para hallar patrones que dieran indicios sobre la identidad o el origen de los atacantes. Sin embargo, con el uso extendido de modelos de IA para generar estos elementos, esos matices identificativos desaparecen. Kaspersky destacó en su informe que, en la actualidad, los resultados producidos por la IA son "neutrales y estandarizados", lo que suprime los elementos que históricamente permitían a los analistas vincular un ataque con un grupo o individuo específico.

La creciente “neutralidad” en el resultado de estos ataques ha llevado a los equipos de investigación a considerar menos fiables los métodos tradicionales de análisis forense digital. Según consignó el medio, los expertos concluyeron que la tendencia apunta hacia la pérdida progresiva de valor de las señales empleadas para la atribución, especialmente a medida que más ciberdelincuentes adopten inteligencia artificial para planificar y ejecutar sus campañas.

Check Point Research, que también ha seguido de cerca estos desarrollos, informó que la aparición y el uso de agentes de IA para crear herramientas de hacking complejas puede realizarse en días y ya no en meses. Esta evolución incrementa el riesgo de nuevas amenazas y ajusta la dinámica de la defensa digital: lo que antes constituía proyectos de larga duración y equipos especializados, ahora puede ser diseñado y desplegado en menor tiempo y por individuos asistidos por sistemas automatizados de generación de contenido malicioso.

Un caso documentado por estos equipos de investigación es el de VoidLink, un framework de malware para sistemas Linux nativo en la nube, que integró más de treinta módulos diferentes para la explotación posterior, funcionalidades avanzadas en entornos de nube y rootkits destinados a eludir los sistemas de protección. Al analizar su origen, los peritos identificaron que, a pesar de la complejidad, esta herramienta fue desarrollada por una sola persona mediante IA agéntica, contrariando la idea de que solo organizaciones grandes y recursos amplios pueden generar tales amenazas.

De igual modo, Check Point Research identificó el uso de Slopoly, un malware derivado de IA aplicado en campañas de extorsión masiva que facilitó a los atacantes mantenerse en los servidores comprometidos durante aproximadamente una semana, dificultando que los defensores pudieran erradicarlos con rapidez.

Estos hallazgos subrayan la transformación que enfrenta el sector de la ciberseguridad. Kaspersky resaltó que el uso ampliado de la inteligencia artificial agudiza el problema de atribución y genera mayores desafíos para los equipos de investigación y respuesta ante incidentes. La eliminación de la “huella digital” que aportaba la imperfección humana multiplica los riesgos y plantea preguntas sobre el futuro del análisis forense y la trazabilidad en el marco de ataques complejos respaldados por IA.

A partir de estos escenarios, el informe de Kaspersky plantea que la atribución de los ciberataques se volverá cada vez más incierta. Los especialistas advierten que la expansión en la capacidad de anonimato, sumada a la velocidad de desarrollo, otorga ventajas a los delincuentes y requiere la revisión de estrategias y tecnologías defensivas a escala global. Según reportó Check Point Research, estos cambios exigen esfuerzos redoblados para desarrollar nuevas técnicas de detección y atribución, ajustadas a la realidad que impone la inteligencia artificial en el entorno del cibercrimen.