
Los ciberdelincuentes han encontrado nuevas formas de estafar a sus víctimas, siendo una de las más alarmantes, la clonación de voz, una técnica que utiliza inteligencia artificial para replicar con precisión las voces de personas específicas.
Según informó el Instituto Nacional de Ciberseguridad (Incibe), este tipo de fraude ha permitido a los estafadores suplantar a familiares, amigos o compañeros de trabajo, logrando que las víctimas realicen transferencias de dinero o compartan información confidencial.
La clave de este tipo de estafas radica en el uso de software de clonación de voz, que analiza grabaciones previas de una persona para generar audios artificiales que imitan su tono, ritmo y acento. Estas grabaciones son tan convincentes que, en muchos casos, resultan indistinguibles de una conversación real.

Según detalló el Incibe, los delincuentes pueden manipular estos audios para que parezca que una persona cercana está solicitando ayuda urgente, como dinero para una emergencia, así que es necesario conocer cómo identificar si quién llama sí necesita ayuda o es una farsa.
Cómo estafan a través de llamadas telefónicas clonadas con IA
El objetivo principal de los ciberdelincuentes es aprovechar la confianza de las víctimas para obtener beneficios económicos o información sensible. Según explicó el Incibe, los estafadores suelen hacerse pasar por familiares o personas de confianza, utilizando las grabaciones clonadas para crear situaciones de urgencia.
Asimismo, el proceso comienza con la obtención de grabaciones de voz de la persona que desean suplantar. Estas grabaciones pueden ser extraídas de mensajes de voz, videos en redes sociales o cualquier otro contenido público.

Una vez que tienen suficiente material, los delincuentes emplean herramientas de IA para replicar la voz con un alto nivel de fidelidad. Esto les permite generar audios personalizados que se utilizan para engañar a las víctimas. Pueden simular que un hijo o un hermano está en problemas y necesita dinero de manera inmediata.
Cuál es la mejor defensa para este tipo de fraude telefónico
Ante el aumento de este tipo de estafas, los expertos sugieren tomar medidas preventivas para evitar caer en la trampa. Una de las estrategias más efectivas es realizar una pregunta de seguridad que solo la persona real pueda responder.
Preguntar algo como “¿Cuál fue el nombre de mi primera mascota?” puede ser suficiente para desenmascarar a un estafador. Este tipo de preguntas funcionan porque los delincuentes, aunque tengan acceso a la voz clonada, no poseen el conocimiento personal necesario para responder correctamente.

También, se debe desconfiar de cualquier llamada que solicite transferencias de dinero de manera urgente, sobre todo si proviene de un número desconocido o si la situación parece inusual.
Además, verificar la identidad del interlocutor a través de otros medios, como una videollamada o un mensaje directo, puede ser una manera adicional de verificar la autenticidad de la solicitud.
Qué impacto impacto está teniendo la tecnología de “deepfake de voz”
El fenómeno de la clonación de voz forma parte de una tendencia más amplia conocida como “deepfake de voz”, que utiliza inteligencia artificial para replicar voces humanas con grandes similitudes.

Según el Incibe, esta tecnología representa un gran reto para las víctimas, porque los audios generados son tan realistas que pueden convencer incluso a las personas más cautelosas.
Asimismo, el uso de esta tecnología no solo se limita a estafas individuales, se han reportado casos en los que los delincuentes usan voces clonadas para suplantar a ejecutivos de empresas, logrando que empleados realicen transferencias de grandes sumas de dinero a cuentas fraudulentas.
Este tipo de ataques, conocidos como fraudes de CEO, han generado pérdidas millonarias en diversas organizaciones alrededor del mundo, así que es crucial seguir las pautas de seguridad para evitar comprometer la seguridad financiera propia o de la empresa donde se trabaja.
Últimas Noticias
Las redes sociales y los adolescentes, un debate que se expande en el mundo: ¿prohibición total o uso limitado?
Mientras países como España avanzan con restricciones para menores de 16 años, especialistas advierten que prohibir no alcanza. Qué dicen los estudios, cuáles son los riesgos y qué estrategias proponen para acompañar a los jóvenes en el uso de las redes sociales

Invertir en longevidad: cuáles son las empresas AgeTech que cuidan el mañana
Desde robots sociales hasta avances en biotecnología, surgen nuevas formas de prevención y acompañamiento para quienes atraviesan la tercera edad

Cómo conversar por WhatsApp con alguien que no tiene instalada la aplicación
Los Guest Chats permiten invitar a cualquier persona a un chat de WhatsApp mediante un enlace personalizado

¿Poner una llave sobre el router Wi-Fi realmente dirige la señal hacia zonas específicas de la casa?
Gemini, la inteligencia artificial de Google, aclara el trasfondo técnico y desmonta el mito con argumentos claros

Este es el nuevo juego de Steam con temática similar a Diablo y más de 1.000 críticas positivas
Dragonkin: The Banished, el nuevo RPG de acción de Eko Software, se consolida como una alternativa para los fans de este género



