El negocio de ‘resucitar’ a familiares fallecidos: así son las voces clonadas con IA y sus riesgos

Con solo tres segundos de audio de una persona, les posible replicar su voz para ofrecer servicios de apoyo emocional

Guardar
Google icon
Hombre caucásico sonriendo levemente mientras usa un teléfono móvil, del cual emergen iconos digitales azules de IA, incluyendo cerebros, robots y nubes.
La clonación de voz con inteligencia artificial potencia la aparición de nuevos negocios, pero también incrementa los riesgos de estafas sofisticadas. (Imagen Ilustrativa Infobae)

Usando inteligencia artificial se ha abierto un negocio que tiene tanto de rentable como de peligroso: la imitación de voces de familiares para relizar llamadas de acompañamiento o contenidos peligrosos.

Empresas tecnológicas y ciberdelincuentes aprovechan los avances en clonación de voz con IA para crear avatares capaces de imitar a la perfección a familiares y conocidos, generando desde servicios de consuelo hasta sofisticadas estafas.

PUBLICIDAD

Cómo funcionan las imitaciones de voces con IA

El mecanismo detrás de la clonación de voz con IA parte de una premisa sencilla: con apenas tres segundos de audio de una persona real —obtenidos de redes sociales, mensajes de voz o videos—, los algoritmos pueden construir una réplica digital de esa voz. Esta simulación logra captar el tono, el timbre y hasta los matices emocionales, haciendo que el resultado sea casi indistinguible de la voz original.

El proceso suele comenzar con la recopilación de material sonoro auténtico. Los delincuentes digitales, por ejemplo, buscan audios públicos o privados de sus futuras víctimas. Una vez que cuentan con esa muestra, emplean software para generar una voz sintética. Esta voz puede usarse para grabar mensajes o realizar llamadas en tiempo real, lo que multiplica el alcance del fraude.

PUBLICIDAD

Primer plano de una mujer con una lágrima en la mejilla, sosteniendo un teléfono con pantalla que muestra una onda de sonido y "AI Voice", mientras llueve.
Con solo tres segundos de audio de una persona, los algoritmos de IA pueden replicar su voz de forma casi idéntica, facilitando las estafas digitales. (Imagen Ilustrativa Infobae)

Cómo las empresas están ganando dinero con las voces de tus familiares

El negocio de la clonación de voces no se limita al delito. Empresas tecnológicas han desarrollado productos y servicios orientados tanto al entretenimiento como al consuelo emocional, como los griefbots.

En un informe de La Vanguardia, se detalla como plataformas como Replika y StoryFile permiten recrear conversaciones con seres queridos fallecidos, utilizando sus datos, audios y mensajes para construir avatares digitales que “responden” como ellos.

En 2021, Microsoft patentó un sistema para generar chatbots basados en la huella digital de las personas. Aunque la empresa no llegó a comercializarlo, marcó un precedente en el sector. Samsung presentó un prototipo de realidad virtual en el que una madre interactuaba con una recreación de su hija fallecida, lo que generó controversia y debate sobre los límites éticos de estas tecnologías.

La comercialización de estos servicios suele implicar pagos mensuales para mantener activo el avatar, tarifas adicionales para ampliar su memoria digital o generar su voz, y extras para convertirlo en un personaje tridimensional.

Imagen dividida: a la izquierda, el rostro de una mujer con una lágrima durante una llamada. A la derecha, una simulación de voz holográfica con un rostro de IA.
Herramientas como chatbots y griefbots utilizan datos y audios de personas para crear avatares virtuales capaces de interactuar en tiempo real. (Imagen Ilustrativa Infobae)

Cuáles son los riesgos emocionales, psicológicos y sociales de esta práctica

El impacto de estas tecnologías va más allá del fraude económico. La posibilidad de conversar con avatares de fallecidos o de ser engañado por la voz de un ser querido plantea riesgos serios para la salud mental.

El realismo de las voces clonadas puede resultar tan persuasivo como traicionero, generando dependencia, desengaño y, en algunos casos, impidiendo la aceptación de la pérdida.

Especialistas en psicología advierten que el uso habitual de estas herramientas podría interrumpir el proceso natural del duelo. La psicóloga Alba Villagarcía subraya que este tipo de IA puede funcionar como un “analgésico emocional”, pero cuando deja de ser una ayuda puntual y se convierte en hábito, el riesgo de dependencia y distorsión de la realidad crece significativamente.

El negocio de las voces clonadas también afecta a quienes, tras una pérdida violenta o inesperada, se aferran a la ilusión de “traer de vuelta” a la persona fallecida. En estos casos, la interacción constante con el avatar puede bloquear la formación de nuevos vínculos reales y aislar a la persona doliente en una burbuja artificial.

Primer plano de una mujer de cabello castaño corto, suéter azul, con una mano en la frente y un teléfono negro en la oreja, mostrando expresión de preocupación.
Expertos advierten sobre los riesgos psicológicos de mantener conversaciones frecuentes con avatares de fallecidos, que pueden dificultar el duelo saludable. (Imagen Ilustrativa Infobae)

Estafas que usan la clonación de voz con IA

Las estafas con voz clonada y IA, conocidas como vishing, no son un fenómeno aislado. Se han reportado casos en numerosos países, con víctimas tanto particulares como empresariales.

En Argentina, una mujer recibió un mensaje de WhatsApp en el que la voz de un conocido le ofrecía comprar dólares a un precio ventajoso. Al confiar en la autenticidad del mensaje, transfirió una suma importante de dinero, solo para descubrir más tarde que el audio había sido generado por inteligencia artificial. La fiscalía especializada en delitos digitales comprobó que la voz se había construido a partir de audios previos del contacto suplantado.

En Estados Unidos, el llamado “grandparent scam” afecta a familias que reciben llamadas urgentes de supuestos nietos o hijos, pidiendo dinero para solucionar emergencias médicas o legales. Un caso documentado involucra a un hombre que transfirió 25.000 dólares tras escuchar lo que creía era la voz de su hijo.

Estas prácticas se complementan con ingeniería social: los delincuentes manipulan emocionalmente a las víctimas, apelando a la urgencia y la ansiedad para evitar que verifiquen la situación antes de transferir dinero o proporcionar información sensible.

PUBLICIDAD

PUBLICIDAD