Los 'deepfakes' cada vez más realistas y que se modifican en tiempo real serán una de las principales amenazas de 2026, que tendrá a la inteligencia artificial (IA) generativa y de agentes como principales protagonistas tanto en el lado de la defensa como en el de los criminales.
Una vez más, la IA marcará el panorama de la ciberseguridad en 2026, a través de modelos de lenguaje e inteligencia generativa que mejorarán las capacidades de protección, pero también ampliarán las posibilidades de ciberataque de los ciberdelincuentes.
Así se desprende del informe 'Kaspersky Security Bulletin 2025 Statistics', que recoge las previsiones para el próximo año de la firma de seguridad Kaspersky, y que incluye entre las principales tendencias la consolidación de los 'deepfakes'.
Esta tecnología, caracterizada por el uso de herramientas de IA para manipular con gran realismo imágenes y vídeos, seguirá mejorando, sobre todo en lo que respecta al audio, y los programas para generarlos serán aún más fáciles de usar, sin necesidad de conocimientos técnicos, lo que multiplicará el riesgo de su uso malicioso.
Las plataformas sociales y servicios digitales tienen sistemas que detectan el contenido generado por IA y lo etiquetan como tal, para advertir a los usuarios de lo que están viendo y sean conscientes de ello. Sin embargo, otro punto que destaca el informe de Kaspersky es que aún no existen criterios uniformes y muchas etiquetas actuales pueden eliminarse fácilmente.
Por ello, la compañía espera que el próximo año surjan nuevas iniciativas técnicas y normativas para intentar frenar esta brecha.
En esta evolución de los 'deepfakes', la más notable es la posibilidad de realizar cambios en tiempo real, es decir, de que los cibercriminales modifiquen el rostro o la voz durante una videollamada, mejorando el realismo y convirtiéndolos en herramientas muy eficaces para ciberataques dirigidos.
Se une, además, que los modelos de código abierto están alcanzando niveles de rendimiento muy similares a los modelos cerrados, pero sin contar con los mismos mecanismos de control y protección. Esto facilita que ambos tipos de tecnología se utilicen tanto con fines legítimos como para actividades maliciosas.
Los ciberdelincuentes ya son capaces de crear correos falsos muy elaborados, suplantar la identidad visual de marcas o diseñar páginas web de 'phishing' con aspecto completamente profesional. Mientras tanto, las grandes empresas están normalizando el uso de contenido generado por IA en su publicidad, haciendo más difícil discernir lo real de lo manipulado.
La inteligencia artificial se usará a lo largo de toda la cadena de ataque, desde la escritura de código hasta la búsqueda de vulnerabilidades o el despliegue de 'malware'. Además, los ciberdelincuentes intentarán ocultar las huellas del uso de IA para dificultar el análisis forense.
En paralelo, la IA se convertirá en una aliada para los equipos de ciberseguridad, aseguran desde Kaspersky. Como explica, las herramientas basadas en agentes podrán escanear continuamente la infraestructura de una empresa, detectar vulnerabilidades y ofrecer información contextual ya preparada para los analistas.
Al mismo tiempo, los sistemas de defensa adoptarán interfaces en lenguaje natural, donde bastará con escribir una instrucción sencilla en lugar de introducir comandos técnicos complejos.
Últimas Noticias
El Tratado de Aguas EE.UU. México, un acuerdo octogenario para salvar crecientes disputas
VÍDEO: Muere el actor argentino Héctor Alterio a los 96 años en Madrid
Figura emblemática del teatro y el cine en Argentina y España, fue reconocido con numerosos galardones, incluido el Goya de Honor, y participó en películas icónicas hasta 2015, dejando un legado perdurable en la industria audiovisual
