
Las estafas que utilizan inteligencia artificial para imitar la voz de familiares o contactos cercanos se están expandiendo a nivel global, con casos recientes que evidencian su impacto económico y emocional en las víctimas.
Este tipo de fraude, conocido como vishing, combina tecnologías de clonación de voz con técnicas de ingeniería social para generar engaños cada vez más difíciles de detectar.
Uno de los casos más recientes ocurrió cuando una mujer de Argentina recibió un mensaje de voz a través de WhatsApp desde la cuenta de un conocido. En el audio, la voz —aparentemente auténtica— ofrecía la posibilidad de comprar dólares a buen precio y urgía a concretar la operación.

Convencida de la veracidad del mensaje, la víctima transfirió una suma importante de dinero. Sin embargo, al intentar coordinar la entrega, dejó de recibir respuestas. Posteriormente, comprobó que su contacto nunca había enviado esos audios.
La investigación, a cargo de una fiscalía especializada en delitos digitales, determinó que los mensajes habían sido generados mediante inteligencia artificial. El análisis técnico permitió confirmar que la voz había sido clonada con gran precisión en su tono y timbre, tras acceder a audios previos del contacto suplantado.
Este tipo de fraude no es aislado. En los últimos años, la clonación de voz mediante IA se ha consolidado como una herramienta utilizada por ciberdelincuentes.

Con apenas unos segundos de audio —obtenidos de redes sociales, mensajes o videos— es posible recrear una voz sintética capaz de imitar a una persona real. A partir de ahí, los estafadores envían mensajes o realizan llamadas simulando ser familiares o conocidos.
El mecanismo suele complementarse con técnicas adicionales, como el “caller ID spoofing”, que permite falsificar el número telefónico desde el que se realiza la llamada. De esta forma, el engaño resulta aún más convincente, ya que el dispositivo de la víctima muestra el contacto real en pantalla.
Una vez establecida la comunicación, los delincuentes apelan a la urgencia para evitar que la víctima verifique la situación. Solicitan transferencias de dinero bajo pretextos como emergencias médicas, accidentes o problemas legales. Este componente emocional es clave para el éxito de la estafa.

Casos similares se han reportado en distintos países. En Estados Unidos, por ejemplo, se han documentado fraudes en los que delincuentes clonaron la voz de hijos o nietos para pedir dinero urgente a familiares, en lo que se conoce como “grandparent scam”. En uno de estos episodios, un hombre transfirió 25.000 dólares tras recibir una llamada en la que escuchó lo que creía que era la voz de su hijo.
También se han registrado incidentes en los que las estafas apuntan a empresas. En estos casos, los atacantes imitan la voz de ejecutivos para ordenar transferencias desde áreas financieras, una modalidad conocida como “CEO fraud”. Incluso compañías como Ferrari han sido objetivo de intentos de este tipo, que en algunos casos fueron detectados a tiempo.
Ante la sofisticación de estas prácticas, especialistas advierten que la prevención es la principal herramienta de defensa. Actualmente, no existen sistemas capaces de identificar en tiempo real si una voz ha sido generada por inteligencia artificial en una llamada o mensaje.

Entre las recomendaciones más efectivas se encuentra establecer una palabra clave entre familiares. Este mecanismo permite verificar la autenticidad de una comunicación en situaciones de urgencia. Si la persona que llama no puede proporcionar esa clave, es probable que se trate de un intento de fraude.
Otras medidas incluyen cortar la comunicación y volver a llamar al número habitual del contacto, confirmar la situación con otros familiares y evitar realizar transferencias de dinero bajo presión. También se aconseja desconfiar de mensajes que generen urgencia o ansiedad.
El avance de la inteligencia artificial ha transformado la voz en un elemento vulnerable dentro del ecosistema digital. Lo que durante años fue una señal de confianza, hoy puede ser replicado con precisión por herramientas tecnológicas. En este contexto, la verificación por medios alternativos se vuelve clave para evitar caer en este tipo de engaños.

La expansión de estas estafas refleja cómo la tecnología puede ser utilizada tanto para innovar como para delinquir. Frente a ello, la concientización y la adopción de hábitos preventivos son fundamentales para reducir los riesgos en un entorno cada vez más complejo.
Últimas Noticias
Conoce las tecnologías que impulsan la carrera hacia Marte y acercan su exploración humana
La combinación de innovación en energía, biotecnología y transporte está redefiniendo los límites de lo posible en la carrera espacial

Steam lanza un descuento histórico para un juego que cuenta con 300.000 reseñas positivas
La promoción destaca dentro de Steam por tratarse de un título reciente con una rebaja poco habitual

Ver ‘Las guerreras K-pop’ en Magis TV o XUPER TV: un error para la seguridad de tus datos
La única plataforma segura para visualizar esta película es Netflix y su aplicación se puede descargar en tiendas oficiales compatibles con diferentes dispositivos

MacBook Neo vs. MacBook Air: ¿Cuáles son las diferencias si compras tu primer Mac?
Apple propone dos perfiles distintos: el Neo está más enfocado a estudiantes y usuarios básicos y el Air está más dirigido para quienes buscan potencia y longevidad

Valor de ethereum y otras principales criptomonedas para este 26 de marzo
El bitcoin, una de las principales criptomonedas, registra un precio de 69.289,4 dólares



