“Mamá, necesito ayuda”: la nueva estafa con IA que clona la voz de tus hijos con solo 3 segundos de audio

La clonación de voz con IA permite suplantar identidades con audios casi indistinguibles

Guardar
El sonido del celular que te indica que están grabando la llamada.
Estafadores usan voces creadas con IA para estafas a usuarios durante llamadas. (Foto: Imagen ilustrativa)

Las estafas que utilizan inteligencia artificial para imitar la voz de familiares o contactos cercanos se están expandiendo a nivel global, con casos recientes que evidencian su impacto económico y emocional en las víctimas.

Este tipo de fraude, conocido como vishing, combina tecnologías de clonación de voz con técnicas de ingeniería social para generar engaños cada vez más difíciles de detectar.

Uno de los casos más recientes ocurrió cuando una mujer de Argentina recibió un mensaje de voz a través de WhatsApp desde la cuenta de un conocido. En el audio, la voz —aparentemente auténtica— ofrecía la posibilidad de comprar dólares a buen precio y urgía a concretar la operación.

Peruano integraba millonaria red criminal de estafa y extorsión en Estados Unidos: se apoderó de US$ 15 millones y afectó a más de 30 mil personas
Ciberdelincuentes se apoderan de la cuenta de un usuario y luego usan la IA para clonar su voz y así aprovecharse de sus contactos.| Composición Infobae (Foto: Andina)

Convencida de la veracidad del mensaje, la víctima transfirió una suma importante de dinero. Sin embargo, al intentar coordinar la entrega, dejó de recibir respuestas. Posteriormente, comprobó que su contacto nunca había enviado esos audios.

La investigación, a cargo de una fiscalía especializada en delitos digitales, determinó que los mensajes habían sido generados mediante inteligencia artificial. El análisis técnico permitió confirmar que la voz había sido clonada con gran precisión en su tono y timbre, tras acceder a audios previos del contacto suplantado.

Este tipo de fraude no es aislado. En los últimos años, la clonación de voz mediante IA se ha consolidado como una herramienta utilizada por ciberdelincuentes.

David Cornejo Fernández, ciudadano peruano de 36 años, se declaró culpable ante la justicia estadounidense por su papel en una red internacional de fraude y extorsión
Cientos de usuarios reportan haber sufrido estafas a través de llamadas telefónicas. | Andina

Con apenas unos segundos de audio —obtenidos de redes sociales, mensajes o videos— es posible recrear una voz sintética capaz de imitar a una persona real. A partir de ahí, los estafadores envían mensajes o realizan llamadas simulando ser familiares o conocidos.

El mecanismo suele complementarse con técnicas adicionales, como el “caller ID spoofing”, que permite falsificar el número telefónico desde el que se realiza la llamada. De esta forma, el engaño resulta aún más convincente, ya que el dispositivo de la víctima muestra el contacto real en pantalla.

Una vez establecida la comunicación, los delincuentes apelan a la urgencia para evitar que la víctima verifique la situación. Solicitan transferencias de dinero bajo pretextos como emergencias médicas, accidentes o problemas legales. Este componente emocional es clave para el éxito de la estafa.

Primer plano de una mujer mayor atenta, con un teléfono en cada mano: uno muestra una app bancaria, el otro está en su oído. Hay billetes y gafas en la mesa.
La clonación de voz usando IA es usada cada vez con más frecuencia por los estafadores. (Imagen Ilustrativa Infobae)

Casos similares se han reportado en distintos países. En Estados Unidos, por ejemplo, se han documentado fraudes en los que delincuentes clonaron la voz de hijos o nietos para pedir dinero urgente a familiares, en lo que se conoce como “grandparent scam”. En uno de estos episodios, un hombre transfirió 25.000 dólares tras recibir una llamada en la que escuchó lo que creía que era la voz de su hijo.

También se han registrado incidentes en los que las estafas apuntan a empresas. En estos casos, los atacantes imitan la voz de ejecutivos para ordenar transferencias desde áreas financieras, una modalidad conocida como “CEO fraud”. Incluso compañías como Ferrari han sido objetivo de intentos de este tipo, que en algunos casos fueron detectados a tiempo.

Ante la sofisticación de estas prácticas, especialistas advierten que la prevención es la principal herramienta de defensa. Actualmente, no existen sistemas capaces de identificar en tiempo real si una voz ha sido generada por inteligencia artificial en una llamada o mensaje.

Conoce cómo los delincuentes obtienen tu voz y con la ayuda de la IA realizan llamadas de falsos secuestros | Foto composición
La estafa de clonación de voz no solo se ha incrementado para el público en general, también para las empresas. | Foto composición: Infobae Perú / Analí Espinoza

Entre las recomendaciones más efectivas se encuentra establecer una palabra clave entre familiares. Este mecanismo permite verificar la autenticidad de una comunicación en situaciones de urgencia. Si la persona que llama no puede proporcionar esa clave, es probable que se trate de un intento de fraude.

Otras medidas incluyen cortar la comunicación y volver a llamar al número habitual del contacto, confirmar la situación con otros familiares y evitar realizar transferencias de dinero bajo presión. También se aconseja desconfiar de mensajes que generen urgencia o ansiedad.

El avance de la inteligencia artificial ha transformado la voz en un elemento vulnerable dentro del ecosistema digital. Lo que durante años fue una señal de confianza, hoy puede ser replicado con precisión por herramientas tecnológicas. En este contexto, la verificación por medios alternativos se vuelve clave para evitar caer en este tipo de engaños.

(Imagen Ilustrativa Infobae)
El avance de la inteligencia artificial ha mejorado la clonación de voz, haciéndola casi imperceptible al oído humano. (Imagen Ilustrativa Infobae)

La expansión de estas estafas refleja cómo la tecnología puede ser utilizada tanto para innovar como para delinquir. Frente a ello, la concientización y la adopción de hábitos preventivos son fundamentales para reducir los riesgos en un entorno cada vez más complejo.