
Una voz conocida llama por teléfono móvil. Es la de su madre, su pareja o su mejor amigo. Habla con urgencia, pide ayuda o solicita dinero. Pero la llamada no es real. Detrás de ese tono familiar, construido con precisión, hay un sistema que imita voces humanas a la perfección.
Se trata de un nuevo tipo de estafa, cada vez más común y sofisticada, basada en inteligencia artificial. El FBI ha emitido una alerta oficial advirtiendo sobre este tipo de engaños, que ya circulan por todo el continente.
El método de estafa advertido por el FBI
El vishing, una técnica que combina llamadas telefónicas y audios generados por algoritmos para manipular emocionalmente a las víctimas y robar información o fondos.

La estrategia es sencilla, pero efectiva. Los ciberdelincuentes recogen muestras de voz disponibles públicamente tales como videos, audios en redes sociales, grabaciones enviadas por aplicaciones de mensajería. Luego las procesan mediante modelos de IA entrenados para replicar patrones de habla, entonaciones y frases características.
Con eso, crean mensajes de voz o llamadas que imitan casi a la perfección a la persona suplantada. En muchos casos, el objetivo es que la víctima transfiera dinero con urgencia o proporcione datos sensibles, creyendo que está ayudando a alguien de confianza.
Este tipo de fraude se inscribe en una tendencia más amplia de ataques personalizados, conocidos como spear phishing. A diferencia del phishing general, que envía mensajes masivos sin distinción, estas técnicas están dirigidas a objetivos concretos. En el caso del vishing, la manipulación emocional se combina con la familiaridad de una voz conocida, y eso aumenta significativamente la eficacia del engaño.
Suplantación y robo de información

El FBI también advierte sobre una modalidad paralela: el smishing, que utiliza mensajes de texto para iniciar el contacto. En estos mensajes, los atacantes pueden hacerse pasar por entidades bancarias, instituciones públicas o contactos cercanos, e incluyen enlaces maliciosos que conducen a sitios controlados por ellos.
Desde ahí, buscan obtener credenciales, descargar malware o instalar aplicaciones espía en los dispositivos.
En ambos casos, el objetivo final es el mismo: acceder a cuentas personales, extraer información financiera o suplantar identidades para atacar a terceros. Y lo hacen utilizando técnicas de ingeniería social, es decir, manipulando la confianza y las emociones de las personas.
Inteligencia Artificial al servicio de los ciberdelincuentes
El problema se agrava con la sofisticación de los sistemas de generación de voz. Las herramientas de clonación vocal basadas en inteligencia artificial han avanzado tanto que las diferencias entre una voz auténtica y una falsa son casi imperceptibles.

De hecho, muchas de estas grabaciones superan con éxito las barreras psicológicas de los oyentes, que terminan creyendo que están hablando con alguien que conocen de toda la vida.
Recomendaciones para evitar caer en fraudes
La más simple, pero efectiva, es establecer con los familiares y personas de confianza una palabra o frase clave, que solo se use para verificar la autenticidad de un mensaje o una llamada en caso de duda. También es fundamental evitar compartir información sensible a través de canales no verificados, especialmente si se recibe una solicitud desde un número desconocido o una plataforma no habitual.
La recomendación general es desconfiar de cualquier pedido urgente de dinero o datos que llegue por teléfono o mensaje sin haber sido anunciado previamente.
Antes de responder, se debe verificar de forma independiente la identidad del remitente. Buscar el número por cuenta propia, contactar a la persona a través de otro canal confirmado o pedir una videollamada son maneras de confirmar si se trata de un contacto legítimo.
Además, se aconseja no hacer clic en enlaces ni descargar archivos que lleguen de fuentes desconocidas. Y, por supuesto, activar la autenticación en dos pasos en todas las cuentas posibles, lo que añade una capa extra de seguridad frente a accesos no autorizados.
La suplantación de identidad por voz es una de las formas más avanzadas y peligrosas de ciberdelito actuales. La prevención, la educación digital y el pensamiento crítico son hoy herramientas tan importantes como cualquier sistema de seguridad informática.
Últimas Noticias
Google refuerza la seguridad infantil en YouTube con inversión en animación de IA
La iniciativa, impulsada por el fondo AI Futures, busca elevar la calidad de los videos infantiles en la plataforma

Meta planea reducir hasta un 20% su plantilla por las inversiones en IA
La compañía ha ofrecido paquetes salariales multimillonarios para captar investigadores destacados y crear un equipo de superinteligencia

¿Cortesía con la IA?: la respuesta científica sobre el impacto de ser educado con los chatbots
Los investigadores probaron instrucciones con distintos grados de educación, desde mensajes groseros hasta otros excesivamente formales

El peligro de ‘Zombie ZIP’: ‘malware’ para antivirus dentro de archivos comprimidos
Este método malicioso aprovecha la forma en que los antivirus y programas de descompresión leen la información contenida en los archivos ZIP

Bumble vuela en bolsa tras anunciar su reinvención con tecnología de IA
Las acciones de la compañía registraron un alza superior al 40% en las primeras horas de negociación



