
Las estafas impulsadas por inteligencia artificial están creciendo a una velocidad sin precedentes y ya permiten a los delincuentes clonar voces, generar rostros falsos y realizar videollamadas deepfake en tiempo real para engañar a víctimas y robar dinero. Expertos en ciberseguridad, como ESET, alertan que estas herramientas, antes reservadas para laboratorios tecnológicos, hoy pueden utilizarse con aplicaciones gratuitas y apenas unos segundos de audio.
Uno de los mayores temores de las autoridades es la facilidad con la que ahora puede suplantarse la identidad de cualquier persona. Un mensaje de voz enviado por WhatsApp, un video publicado en redes sociales o una llamada grabada pueden ser suficientes para entrenar sistemas capaces de imitar la voz de alguien con gran precisión.
PUBLICIDAD
El fenómeno ya está provocando pérdidas millonarias en todo el mundo. Empresas de seguridad reportaron un aumento explosivo de fraudes vinculados con contenido generado por IA, mientras organismos internacionales como Interpol advierten que redes criminales están utilizando estas herramientas para multiplicar sus ataques.

Cómo funciona el clonaje de voz con IA
La clonación de voz se convirtió en una de las técnicas más utilizadas por los ciberdelincuentes. Los sistemas actuales necesitan apenas unos segundos de grabación para recrear el tono, la velocidad, las pausas y hasta las muletillas de una persona.
PUBLICIDAD
El resultado puede ser extremadamente convincente. Una víctima podría recibir una llamada aparentemente realizada por un familiar, un amigo o incluso un jefe de trabajo solicitando dinero urgente o información sensible.
La sofisticación alcanzó niveles preocupantes porque muchos modelos funcionan en tiempo real. Esto permite que el sistema responda preguntas, improvise conversaciones y adapte el tono emocional durante la llamada.
PUBLICIDAD

Especialistas de Kaspersky explican que la combinación de inteligencia artificial y manipulación emocional está convirtiendo estos fraudes en uno de los mayores riesgos digitales actuales.
Los deepfakes ya se usan en videollamadas
La amenaza no se limita únicamente al audio. Los videos deepfake generados por IA también crecieron de manera acelerada durante los últimos años. Empresas de ciberseguridad reportaron que los incidentes vinculados a videos falsos aumentaron drásticamente durante 2025, impulsados por herramientas cada vez más accesibles y fáciles de utilizar.
PUBLICIDAD
Uno de los casos más impactantes ocurrió en Hong Kong. Un empleado de la firma de ingeniería Arup participó en una videollamada donde creyó hablar con directivos reales de la compañía, incluido el director financiero.
Sin embargo, todas las personas presentes en pantalla eran recreaciones generadas por inteligencia artificial. Tras recibir instrucciones aparentemente legítimas, el trabajador autorizó transferencias millonarias antes de descubrir que había sido víctima de un fraude.
PUBLICIDAD

El caso mostró que los deepfakes ya no son simples videos editados, sino sistemas capaces de simular expresiones faciales, movimientos y conversaciones en vivo.
Las estafas románticas también evolucionaron
Otro de los delitos que más se transformó con la inteligencia artificial es el fraude romántico. Los especialistas llaman a esta nueva modalidad “pig butchering 2.0”, una evolución de las tradicionales estafas sentimentales utilizadas para convencer a las víctimas de invertir dinero en plataformas fraudulentas.
PUBLICIDAD
La diferencia es que ahora los delincuentes pueden aparecer en videollamadas usando rostros creados por IA, interactuar en tiempo real y construir vínculos emocionales mucho más creíbles. Las pérdidas económicas asociadas a este tipo de fraude alcanzaron cifras multimillonarias a nivel global durante los últimos años, según reportes internacionales.
Las personas mayores aparecen entre los grupos más afectados. Autoridades y expertos detectaron un incremento significativo en las pérdidas sufridas por adultos mayores víctimas de llamadas falsas y engaños emocionales.
PUBLICIDAD

El phishing también cambió con la IA
La inteligencia artificial no solo está transformando llamadas y videos falsos. También cambió radicalmente los correos electrónicos de phishing. Durante años, muchos mensajes fraudulentos podían identificarse fácilmente por errores ortográficos, traducciones deficientes o frases poco naturales.
Ahora, los modelos de lenguaje generan textos prácticamente indistinguibles de los mensajes reales enviados por bancos, empresas tecnológicas o servicios oficiales. Esto dificulta enormemente detectar fraudes, incluso para usuarios con conocimientos avanzados de seguridad digital.
PUBLICIDAD
Por qué los expertos están preocupados
Lo que más inquieta a los especialistas es que crear deepfakes o clonar voces dejó de ser costoso o complejo. Actualmente existen aplicaciones gratuitas y herramientas disponibles en internet capaces de realizar estas tareas en minutos.
Además, en foros clandestinos se comercializan kits completos para generar identidades falsas, videos manipulados y campañas automatizadas de fraude.
La expansión de estas tecnologías está provocando que las estafas digitales sean cada vez más difíciles de identificar. Para los expertos, el principal desafío será encontrar mecanismos de verificación y educación digital capaces de avanzar al mismo ritmo que la inteligencia artificial.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Día de la Madre: 20 ideas de regalos fáciles y de último momento, según la IA
De acuerdo con Gemini de Google, una de las principales recomendaciones consiste en elegir obsequios personalizados

ChatGPT incorpora una nueva función de seguridad para los usuarios: podrá contactar a amigos o familiares en caso de emergencia
ChatGPT busca reforzar el apoyo emocional de sus usuarios con un sistema que notificará a personas cercanas en casos potencialmente graves

Lista de animes más vistos en Crunchyroll para ver este fin de semana
Estas son las series que han ganado popularidad en la plataforma de streaming que apuesta fuertemente por las producciones japonesas

La IA revela por qué las cintas métricas tienen rombos negros y cuál es su función
Aunque pasan desapercibidos para la mayoría de usuarios, estos símbolos permiten distribuir vigas y soportes de forma rápida y precisa

Cómo se vería Bob Esponja si fuera personaje de Fortnite, según la IA
Nano Banana 2, incorporada en Gemini de Google, posibilita la creación de imágenes utilizando prompts



