
Usando inteligencia artificial se ha abierto un negocio que tiene tanto de rentable como de peligroso: la imitación de voces de familiares para relizar llamadas de acompañamiento o contenidos peligrosos.
Empresas tecnológicas y ciberdelincuentes aprovechan los avances en clonación de voz con IA para crear avatares capaces de imitar a la perfección a familiares y conocidos, generando desde servicios de consuelo hasta sofisticadas estafas.
PUBLICIDAD
Cómo funcionan las imitaciones de voces con IA
El mecanismo detrás de la clonación de voz con IA parte de una premisa sencilla: con apenas tres segundos de audio de una persona real —obtenidos de redes sociales, mensajes de voz o videos—, los algoritmos pueden construir una réplica digital de esa voz. Esta simulación logra captar el tono, el timbre y hasta los matices emocionales, haciendo que el resultado sea casi indistinguible de la voz original.
El proceso suele comenzar con la recopilación de material sonoro auténtico. Los delincuentes digitales, por ejemplo, buscan audios públicos o privados de sus futuras víctimas. Una vez que cuentan con esa muestra, emplean software para generar una voz sintética. Esta voz puede usarse para grabar mensajes o realizar llamadas en tiempo real, lo que multiplica el alcance del fraude.
PUBLICIDAD

Cómo las empresas están ganando dinero con las voces de tus familiares
El negocio de la clonación de voces no se limita al delito. Empresas tecnológicas han desarrollado productos y servicios orientados tanto al entretenimiento como al consuelo emocional, como los griefbots.
En un informe de La Vanguardia, se detalla como plataformas como Replika y StoryFile permiten recrear conversaciones con seres queridos fallecidos, utilizando sus datos, audios y mensajes para construir avatares digitales que “responden” como ellos.
PUBLICIDAD
En 2021, Microsoft patentó un sistema para generar chatbots basados en la huella digital de las personas. Aunque la empresa no llegó a comercializarlo, marcó un precedente en el sector. Samsung presentó un prototipo de realidad virtual en el que una madre interactuaba con una recreación de su hija fallecida, lo que generó controversia y debate sobre los límites éticos de estas tecnologías.
La comercialización de estos servicios suele implicar pagos mensuales para mantener activo el avatar, tarifas adicionales para ampliar su memoria digital o generar su voz, y extras para convertirlo en un personaje tridimensional.
PUBLICIDAD

Cuáles son los riesgos emocionales, psicológicos y sociales de esta práctica
El impacto de estas tecnologías va más allá del fraude económico. La posibilidad de conversar con avatares de fallecidos o de ser engañado por la voz de un ser querido plantea riesgos serios para la salud mental.
El realismo de las voces clonadas puede resultar tan persuasivo como traicionero, generando dependencia, desengaño y, en algunos casos, impidiendo la aceptación de la pérdida.
PUBLICIDAD
Especialistas en psicología advierten que el uso habitual de estas herramientas podría interrumpir el proceso natural del duelo. La psicóloga Alba Villagarcía subraya que este tipo de IA puede funcionar como un “analgésico emocional”, pero cuando deja de ser una ayuda puntual y se convierte en hábito, el riesgo de dependencia y distorsión de la realidad crece significativamente.
El negocio de las voces clonadas también afecta a quienes, tras una pérdida violenta o inesperada, se aferran a la ilusión de “traer de vuelta” a la persona fallecida. En estos casos, la interacción constante con el avatar puede bloquear la formación de nuevos vínculos reales y aislar a la persona doliente en una burbuja artificial.
PUBLICIDAD

Estafas que usan la clonación de voz con IA
Las estafas con voz clonada y IA, conocidas como vishing, no son un fenómeno aislado. Se han reportado casos en numerosos países, con víctimas tanto particulares como empresariales.
En Argentina, una mujer recibió un mensaje de WhatsApp en el que la voz de un conocido le ofrecía comprar dólares a un precio ventajoso. Al confiar en la autenticidad del mensaje, transfirió una suma importante de dinero, solo para descubrir más tarde que el audio había sido generado por inteligencia artificial. La fiscalía especializada en delitos digitales comprobó que la voz se había construido a partir de audios previos del contacto suplantado.
PUBLICIDAD
En Estados Unidos, el llamado “grandparent scam” afecta a familias que reciben llamadas urgentes de supuestos nietos o hijos, pidiendo dinero para solucionar emergencias médicas o legales. Un caso documentado involucra a un hombre que transfirió 25.000 dólares tras escuchar lo que creía era la voz de su hijo.
Estas prácticas se complementan con ingeniería social: los delincuentes manipulan emocionalmente a las víctimas, apelando a la urgencia y la ansiedad para evitar que verifiquen la situación antes de transferir dinero o proporcionar información sensible.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Razones por la que los padres no deben usar en exceso el control parental del celular
Aplicaciones que rastrean ubicación, mensajes y redes sociales abren un debate sobre los límites entre protección, privacidad y educación digital

Apple rompe una racha de 19 años: su producto más importante ya no es el iPhone
Apple proyecta una nueva era tecnológica basada en gafas inteligentes y asistentes con IA que cambiarían la forma de interactuar con los dispositivos

Según la IA este es el ranking de los 50 peores chistes de todos los tiempos
Geminis y ChatGPT seleccionaron los peores chistes de todos los tiempos, demostrando que el humor absurdo, los juegos de palabras y el ridículo siguen rompiendo el hielo

Adiós WhatsApp: por qué la aplicación móvil deja de funcionar en ciertos celulares iPhone y Android
Si tu sistema operativo deja de ser compatible, WhatsApp te avisará con notificaciones previas y recordatorios de actualización
El primer trabajo no tiene que ser perfecto: el consejo de la directora financiera de Microsoft a los jóvenes
Amy Hood contó cómo le costó llegar a la empresa de Bill Gates y ser una de las directivas más influyentes en la actualidad




