Las estafas impulsadas por inteligencia artificial están creciendo a una velocidad sin precedentes y ya permiten a los delincuentes clonar voces, generar rostros falsos y realizar videollamadas deepfake en tiempo real para engañar a víctimas y robar dinero. Expertos en ciberseguridad, como ESET, alertan que estas herramientas, antes reservadas para laboratorios tecnológicos, hoy pueden utilizarse con aplicaciones gratuitas y apenas unos segundos de audio.
Uno de los mayores temores de las autoridades es la facilidad con la que ahora puede suplantarse la identidad de cualquier persona. Un mensaje de voz enviado por WhatsApp, un video publicado en redes sociales o una llamada grabada pueden ser suficientes para entrenar sistemas capaces de imitar la voz de alguien con gran precisión.
El fenómeno ya está provocando pérdidas millonarias en todo el mundo. Empresas de seguridad reportaron un aumento explosivo de fraudes vinculados con contenido generado por IA, mientras organismos internacionales como Interpol advierten que redes criminales están utilizando estas herramientas para multiplicar sus ataques.
PUBLICIDAD
Cómo funciona el clonaje de voz con IA
La clonación de voz se convirtió en una de las técnicas más utilizadas por los ciberdelincuentes. Los sistemas actuales necesitan apenas unos segundos de grabación para recrear el tono, la velocidad, las pausas y hasta las muletillas de una persona.
El resultado puede ser extremadamente convincente. Una víctima podría recibir una llamada aparentemente realizada por un familiar, un amigo o incluso un jefe de trabajo solicitando dinero urgente o información sensible.
La sofisticación alcanzó niveles preocupantes porque muchos modelos funcionan en tiempo real. Esto permite que el sistema responda preguntas, improvise conversaciones y adapte el tono emocional durante la llamada.
PUBLICIDAD
Especialistas de Kaspersky explican que la combinación de inteligencia artificial y manipulación emocional está convirtiendo estos fraudes en uno de los mayores riesgos digitales actuales.
Los deepfakes ya se usan en videollamadas
La amenaza no se limita únicamente al audio. Los videos deepfake generados por IA también crecieron de manera acelerada durante los últimos años. Empresas de ciberseguridad reportaron que los incidentes vinculados a videos falsos aumentaron drásticamente durante 2025, impulsados por herramientas cada vez más accesibles y fáciles de utilizar.
Uno de los casos más impactantes ocurrió en Hong Kong. Un empleado de la firma de ingeniería Arup participó en una videollamada donde creyó hablar con directivos reales de la compañía, incluido el director financiero.
PUBLICIDAD
Sin embargo, todas las personas presentes en pantalla eran recreaciones generadas por inteligencia artificial. Tras recibir instrucciones aparentemente legítimas, el trabajador autorizó transferencias millonarias antes de descubrir que había sido víctima de un fraude.
El caso mostró que los deepfakes ya no son simples videos editados, sino sistemas capaces de simular expresiones faciales, movimientos y conversaciones en vivo.
Las estafas románticas también evolucionaron
Otro de los delitos que más se transformó con la inteligencia artificial es el fraude romántico. Los especialistas llaman a esta nueva modalidad “pig butchering 2.0”, una evolución de las tradicionales estafas sentimentales utilizadas para convencer a las víctimas de invertir dinero en plataformas fraudulentas.
PUBLICIDAD
La diferencia es que ahora los delincuentes pueden aparecer en videollamadas usando rostros creados por IA, interactuar en tiempo real y construir vínculos emocionales mucho más creíbles. Las pérdidas económicas asociadas a este tipo de fraude alcanzaron cifras multimillonarias a nivel global durante los últimos años, según reportes internacionales.
Las personas mayores aparecen entre los grupos más afectados. Autoridades y expertos detectaron un incremento significativo en las pérdidas sufridas por adultos mayores víctimas de llamadas falsas y engaños emocionales.
El phishing también cambió con la IA
La inteligencia artificial no solo está transformando llamadas y videos falsos. También cambió radicalmente los correos electrónicos de phishing. Durante años, muchos mensajes fraudulentos podían identificarse fácilmente por errores ortográficos, traducciones deficientes o frases poco naturales.
PUBLICIDAD
Ahora, los modelos de lenguaje generan textos prácticamente indistinguibles de los mensajes reales enviados por bancos, empresas tecnológicas o servicios oficiales. Esto dificulta enormemente detectar fraudes, incluso para usuarios con conocimientos avanzados de seguridad digital.
Por qué los expertos están preocupados
Lo que más inquieta a los especialistas es que crear deepfakes o clonar voces dejó de ser costoso o complejo. Actualmente existen aplicaciones gratuitas y herramientas disponibles en internet capaces de realizar estas tareas en minutos.
Además, en foros clandestinos se comercializan kits completos para generar identidades falsas, videos manipulados y campañas automatizadas de fraude.
PUBLICIDAD
La expansión de estas tecnologías está provocando que las estafas digitales sean cada vez más difíciles de identificar. Para los expertos, el principal desafío será encontrar mecanismos de verificación y educación digital capaces de avanzar al mismo ritmo que la inteligencia artificial.