Aumentan las estafas con voces de familaires y amigos: el desafío de verificar identidades frente al avance de la inteligencia artificial

La IA generativa pone en jaque la autenticidad del contenido digital y multiplica los riesgos de fraude y suplantación de identidad

Guardar
Hombre de traje hablando frente a micrófono, con gráficos digitales de audio y texto superpuestos
La inteligencia artificial permite crear videos y audios falsos que desafían los métodos tradicionales de verificación digital. (Imagen Ilustrativa Infobae)

Durante más de dos décadas, la confianza en lo que se veía y escuchaba en el entorno digital se mantuvo como una regla tácita. El video representaba evidencia, la voz era sinónimo de identidad y una imagen bastaba como prueba. El desarrollo de la inteligencia artificial (IA) generativa ha modificado ese paradigma.

Hoy, la capacidad de crear audios, imágenes y videos falsos de alta calidad se encuentra al alcance del público general y no solo de especialistas, lo que ha provocado una transformación profunda en la naturaleza del fraude digital.

La llegada de herramientas de IA generativa de bajo costo y fácil acceso ha permitido que la creación de deepfakes deje de ser un fenómeno marginal o experimental. Ahora, estas tecnologías se han instalado como un recurso cotidiano para quienes buscan perpetrar engaños sofisticados, explica Marcelo Roitman, Experis Managing Director y Vicepresidente de ManpowerGroup.

La IA ha reducido de manera considerable las barreras de entrada para producir falsificaciones convincentes. El fenómeno ya no requiere inversiones elevadas ni conocimientos técnicos avanzados, lo que ha derivado en la proliferación de servicios de suplantación de identidad dentro de mercados ilícitos cada vez más organizados.

Hacker anónimo tecleando en sala oscura con múltiples pantallas azules y verdes mostrando código digital, mapas globales y gráficos de red. Rostro pixelado.
En Argentina, la digitalización de servicios financieros y comerciales amplifica el impacto de las nuevas modalidades de fraude. (Imagen Ilustrativa Infobae)

Un caso reciente expone la magnitud de este fenómeno. En 2025, una transmisión falsa en YouTube utilizó un avatar generado por inteligencia artificial para suplantar a Jensen Huang, CEO de Nvidia, durante un supuesto evento vinculado a la GPU Technology Conference.

El video invitaba a los espectadores a invertir en criptomonedas y logró alcanzar a miles de usuarios, presentando una imagen creíble y profesional. Esta situación ilustra cómo el contenido manipulado puede circular masivamente, generando riesgos inéditos para la autenticidad digital.

El impacto en Argentina: una redefinición del riesgo digital

En Argentina, la digitalización avanzó de manera acelerada en sectores como servicios financieros, comercio electrónico y comunicaciones. El contexto local muestra un impacto profundo de esta tendencia global.

La proliferación de deepfakes y contenidos manipulados no solo incrementó la cantidad de estafas, sino que también modificó la percepción y gestión del riesgo digital en la región. En los últimos meses, se han reportado nuevas modalidades de fraude que emplean audios generados por IA o mensajes privados para solicitar transferencias bancarias urgentes, movimientos en cuentas o información sensible.

(Imagen Ilustrativa Infobae)
Estafadores utilizan mensajes y audios generados por IA para solicitar transferencias y datos sensibles a través de redes sociales. (Imagen Ilustrativa Infobae)

A estas prácticas se suman estafas asociadas a promociones engañosas, descuentos falsos o alquileres turísticos inexistentes que circulan en redes sociales y plataformas digitales. El uso de tecnologías avanzadas permite que estos esquemas amplifiquen el alcance y la sofisticación de fraudes ya conocidos.

Sistemas de seguridad bajo revisión

El avance de la IA generativa pone en tela de juicio la validez de muchos sistemas de seguridad implementados en los últimos veinte años. Las validaciones remotas, los mecanismos de autenticación por reconocimiento de voz o video y las pruebas digitales se diseñaron bajo la premisa de que el contenido audiovisual resultaba fiable. Esa premisa hoy enfrenta cuestionamientos tecnológicos que obligan a repensar las estrategias de protección digital.

Especialistas advierten que múltiples mecanismos de seguridad se ven superados por la capacidad de la IA para reproducir voces o apariencias con alta precisión, poniendo en riesgo operaciones financieras, accesos a servicios y la protección de datos personales.

Dos desafíos centrales: tecnología y regulación

Frente a este escenario, emergen dos retos principales. El primero corresponde al plano tecnológico. Así como la inteligencia artificial facilita la creación de deepfakes, también existe un desarrollo acelerado de sistemas para detectar contenido manipulado y autenticar identidades digitales de manera robusta. La dinámica se presenta como una auténtica carrera entre quienes diseñan fraudes y quienes desarrollan soluciones de detección y verificación.

Teléfono móvil sobre una mesa de noche con una pantalla digital que muestra una advertencia de 'violación del sistema' junto a iconos de peligro, mientras una persona duerme en el fondo, representando un ciberataque mientras el usuario está dormido.
Los sistemas de autenticación basados en voz o imagen enfrentan cuestionamientos por la sofisticación de los deepfakes. (Imagen Ilustrativa Infobae)

El segundo desafío es normativo. Argentina, al igual que otros países de la región, carece hasta el momento de un marco legal específico que aborde la suplantación de identidad mediante IA en toda su complejidad. Aunque existen figuras jurídicas asociadas al fraude o a la falsificación, el fenómeno actual introduce nuevos elementos: escalabilidad, automatización y anonimato en niveles sin precedentes. La falta de regulación adecuada expone a los usuarios y dificulta la persecución de los responsables.