La ciberdelincuencia evoluciona con IA: ataques más precisos y difíciles de rastrear

Nuevas herramientas maliciosas impulsadas por IA reducen drásticamente el tiempo de desarrollo, facilitando la ejecución de campañas a gran escala

Guardar
Hacker anónimo tecleando en sala oscura con múltiples pantallas azules y verdes mostrando código digital, mapas globales y gráficos de red. Rostro pixelado.
Cibercriminales usan la IA para crear códigos maliciosos y no ser detectados. (Imagen Ilustrativa Infobae)

El uso de inteligencia artificial está transformando el cibercrimen a nivel global, haciendo que los ataques sean más sofisticados, rápidos de ejecutar y cada vez más difíciles de rastrear.

Así lo advierte un reciente informe de la firma de ciberseguridad Kaspersky, que señala que la adopción de herramientas de IA por parte de grupos maliciosos está modificando incluso la “huella digital” que tradicionalmente permitía identificar a los responsables de los ataques.

Según el estudio, una de las principales consecuencias de esta evolución es la dificultad creciente para atribuir los ciberataques. Históricamente, los analistas podían identificar a los atacantes mediante patrones específicos, como errores lingüísticos, estilos de programación o estructuras repetitivas en el código malicioso. Estos elementos funcionaban como una firma única.

IA - ciberataque - tecnología - 24 de febrero
Cada vez es más difícil detectar qué grupos de hackers realizan ciberataques debido a que crean los códigos maliciosos con IA. (Imagen Ilustrativa Infobae)

Sin embargo, con la irrupción de la IA generativa, ese rastro comienza a desaparecer. Los modelos automatizados ahora son capaces de producir código, correos de phishing y otros componentes de ataque con un estilo uniforme, sin errores evidentes ni rasgos distintivos. Esto genera resultados “neutrales y estandarizados”, lo que complica el trabajo de los investigadores encargados de rastrear el origen de las amenazas.

El informe también destaca el avance de la llamada IA agéntica, que permite desarrollar herramientas maliciosas en cuestión de días, en lugar de los meses que requerían anteriormente. Esta aceleración reduce las barreras técnicas para los ciberdelincuentes y facilita la creación de ataques complejos con menos recursos humanos.

Un ejemplo de esta nueva etapa es VoidLink, considerado uno de los primeros marcos de malware desarrollados casi en su totalidad por inteligencia artificial. Este sistema está diseñado para atacar entornos en la nube y puede adaptarse a diferentes escenarios mediante la incorporación de módulos como cargadores, implantes o rootkits.

Desde la aparición de la IA generativa, los ataques realizados con inteligencia artificial han ido en aumento.
Desde la aparición de la IA generativa, los ataques realizados con inteligencia artificial han ido en aumento.

Investigaciones de Check Point Research indican que el desarrollo de VoidLink fue guiado por una sola persona, mientras que la IA se encargó de traducir instrucciones generales en una arquitectura completa y funcional. Este enfoque marca un cambio significativo en la forma en que se diseñan las amenazas digitales.

Otro caso reciente es el de Slopoly, una herramienta utilizada en campañas de extorsión a gran escala. Detectada por IBM X-Force a inicios de 2026, esta amenaza permitió a los atacantes mantener acceso a servidores comprometidos durante varios días, gracias a su capacidad de comunicación constante con sistemas de control remoto.

Aunque técnicamente no representa un salto disruptivo, los expertos señalan que este tipo de herramientas reduce considerablemente el tiempo necesario para ejecutar ataques, lo que incrementa su frecuencia y alcance.

IA - ciberataque - tecnología - 24 de febrero
Herramientas de IA son usadas para realizar ataques a gran escala por parte de los hackers. (Imagen ilustrativa Infobae)

El uso de inteligencia artificial en el cibercrimen no es nuevo, pero su evolución reciente ha ampliado sus capacidades. Ya en 2024, el grupo Lazarus utilizó imágenes generadas por IA para explotar vulnerabilidades en navegadores web y robar criptomonedas, demostrando el potencial de estas tecnologías para fines ilícitos.

Además, la IA generativa permite crear correos electrónicos de phishing altamente realistas, mensajes fraudulentos en múltiples idiomas e incluso perfiles falsos en redes sociales. Según el Instituto Nacional de Ciberseguridad de España, estas herramientas facilitan la automatización de campañas de fraude y aumentan su efectividad.

Ante este panorama, las principales empresas tecnológicas han comenzado a coordinar esfuerzos. Compañías como Google, Meta y Microsoft han suscrito acuerdos para compartir información sobre amenazas y desarrollar sistemas de detección más avanzados.

Científico con manos en cabeza, frente a monitor rojo: "Ataque Cibernético" en sistema cuántico. Colega y equipo de laboratorio atrás.
Las campañas de phising se han vuelto más realistas a raíz de la masificación de la IA. (Imagen Ilustrativa Infobae)

Estas iniciativas incluyen el uso de inteligencia artificial para identificar patrones sospechosos, mejorar la verificación de transacciones y ofrecer canales de denuncia más eficaces para los usuarios afectados.

Especialistas del sector coinciden en que la IA representa un arma de doble filo. Mientras los ciberdelincuentes la utilizan para perfeccionar sus ataques, las organizaciones de seguridad también la emplean para fortalecer sus defensas y responder con mayor rapidez.

El escenario actual refleja una carrera tecnológica en la que tanto atacantes como defensores evolucionan constantemente. En este contexto, la prevención, la actualización de sistemas y la concienciación de los usuarios se mantienen como elementos clave para reducir riesgos.

Varios manos sombrías se acercan a una consola y control de videojuegos, mientras en la pantalla aparecen un gran signo de advertencia y símbolos de candado, representando amenazas de ciberseguridad en los videojuegos.
Especialistas piensan que la IA se ha vuelto en arma de doble filo en el sector de la ciberseguridad. (Imagen Ilustrativa Infobae)

La inteligencia artificial no solo está redefiniendo la forma en que se producen los ciberataques, sino también los mecanismos para combatirlos. Su impacto seguirá creciendo, y con él, la necesidad de adaptarse a un entorno digital cada vez más complejo.