
Los ciberdelincuentes han encontrado nuevas formas de estafar a sus víctimas, siendo una de las más alarmantes, la clonación de voz, una técnica que utiliza inteligencia artificial para replicar con precisión las voces de personas específicas.
Según informó el Instituto Nacional de Ciberseguridad (Incibe), este tipo de fraude ha permitido a los estafadores suplantar a familiares, amigos o compañeros de trabajo, logrando que las víctimas realicen transferencias de dinero o compartan información confidencial.
La clave de este tipo de estafas radica en el uso de software de clonación de voz, que analiza grabaciones previas de una persona para generar audios artificiales que imitan su tono, ritmo y acento. Estas grabaciones son tan convincentes que, en muchos casos, resultan indistinguibles de una conversación real.

Según detalló el Incibe, los delincuentes pueden manipular estos audios para que parezca que una persona cercana está solicitando ayuda urgente, como dinero para una emergencia, así que es necesario conocer cómo identificar si quién llama sí necesita ayuda o es una farsa.
Cómo estafan a través de llamadas telefónicas clonadas con IA
El objetivo principal de los ciberdelincuentes es aprovechar la confianza de las víctimas para obtener beneficios económicos o información sensible. Según explicó el Incibe, los estafadores suelen hacerse pasar por familiares o personas de confianza, utilizando las grabaciones clonadas para crear situaciones de urgencia.
Asimismo, el proceso comienza con la obtención de grabaciones de voz de la persona que desean suplantar. Estas grabaciones pueden ser extraídas de mensajes de voz, videos en redes sociales o cualquier otro contenido público.

Una vez que tienen suficiente material, los delincuentes emplean herramientas de IA para replicar la voz con un alto nivel de fidelidad. Esto les permite generar audios personalizados que se utilizan para engañar a las víctimas. Pueden simular que un hijo o un hermano está en problemas y necesita dinero de manera inmediata.
Cuál es la mejor defensa para este tipo de fraude telefónico
Ante el aumento de este tipo de estafas, los expertos sugieren tomar medidas preventivas para evitar caer en la trampa. Una de las estrategias más efectivas es realizar una pregunta de seguridad que solo la persona real pueda responder.
Preguntar algo como “¿Cuál fue el nombre de mi primera mascota?” puede ser suficiente para desenmascarar a un estafador. Este tipo de preguntas funcionan porque los delincuentes, aunque tengan acceso a la voz clonada, no poseen el conocimiento personal necesario para responder correctamente.

También, se debe desconfiar de cualquier llamada que solicite transferencias de dinero de manera urgente, sobre todo si proviene de un número desconocido o si la situación parece inusual.
Además, verificar la identidad del interlocutor a través de otros medios, como una videollamada o un mensaje directo, puede ser una manera adicional de verificar la autenticidad de la solicitud.
Qué impacto impacto está teniendo la tecnología de “deepfake de voz”
El fenómeno de la clonación de voz forma parte de una tendencia más amplia conocida como “deepfake de voz”, que utiliza inteligencia artificial para replicar voces humanas con grandes similitudes.

Según el Incibe, esta tecnología representa un gran reto para las víctimas, porque los audios generados son tan realistas que pueden convencer incluso a las personas más cautelosas.
Asimismo, el uso de esta tecnología no solo se limita a estafas individuales, se han reportado casos en los que los delincuentes usan voces clonadas para suplantar a ejecutivos de empresas, logrando que empleados realicen transferencias de grandes sumas de dinero a cuentas fraudulentas.
Este tipo de ataques, conocidos como fraudes de CEO, han generado pérdidas millonarias en diversas organizaciones alrededor del mundo, así que es crucial seguir las pautas de seguridad para evitar comprometer la seguridad financiera propia o de la empresa donde se trabaja.
Últimas Noticias
Apple Maps tendría anuncios: esto es lo que debes saber sobre la nueva estrategia
El sistema permitiría a marcas y minoristas competir por visibilidad en los resultados de búsqueda

Reddit planea verificar usuarios reales para combatir la invasión de bots
En la opción menos intrusiva, se plantea utilizar la biometría del dispositivo para verificar que hay una persona real

Microsoft planea un Windows 11 menos saturado de anuncios y más enfocado en el usuario
Scott Hanselman expresó que la meta es lograr un sistema “más calmado y relajado”

Nadie está por encima del mercado: el jurado que condenó a Elon Musk
El hombre más rico del mundo escribió dos tuits que generaron controversia. Un tribunal de San Francisco tardó cuatro días en cuantificar el daño: 2.600 millones de dólares
El CEO de Pinterest apoya prohibir redes sociales a menores de 16 años por salud mental
En su artículo, Bill Ready sostiene que los niños están “viviendo el mayor experimento social de la historia”




