La argentina que perdió 15.000 dólares tras caer en una estafa amorosa con un falso George Clooney

Los criminales lograron replicar voz e imagen del actor con inteligencia artificial y convencieron a la víctima de realizar múltiples transferencias

Guardar
Mujer fue estafada con 15.000
Mujer fue estafada con 15.000 dólares al creer que hablaba con George Clooney. (Imagen ilustrativa)

La expansión de la inteligencia artificial ha potenciado la creación de contenidos falsos, entre ellos los deepfakes, que reproducen imágenes, voces y gestos humanos con un alto nivel de realismo.

Esta tecnología, que en principio se utilizó para fines artísticos y de entretenimiento, se ha convertido también en una herramienta para el delito. Un caso reciente lo ilustra: una mujer argentina perdió 15.000 dólares tras caer en una estafa digital en la que delincuentes suplantaron la identidad del actor George Clooney.

Según relató la víctima, todo comenzó con un comentario que dejó en una foto del actor junto a Leonardo DiCaprio en Facebook. A partir de ese momento, una cuenta que imitaba ser el perfil verificado de Clooney inició contacto con ella.

Estafas con suplantación de identidad
Estafas con suplantación de identidad siguen creciendo gracias a la IA. - (Imagen Ilustrativa Infobae)

Los estafadores, haciéndose pasar por el actor, la convencieron de sumarse a un supuesto club de fans. Para ello le solicitaron distintos pagos que rondaban los 300 dólares cada uno, con la promesa de enviarle una tarjeta de membresía.

En las conversaciones, la mujer confesó que estaba desempleada, lo que fue aprovechado por los criminales. El falso Clooney le aseguró que, al convertirse en socia, recibiría ayuda económica e incluso la posibilidad de conseguir trabajo gracias a sus contactos. “Como recibí la tarjeta, pensé que era verdad”, declaró la víctima.

Con el tiempo, los pedidos de dinero aumentaron. Los estafadores le solicitaron donaciones de hasta 1.000 dólares para la fundación que Clooney dirige en la vida real, y llegaron a convencerla de transferir un total de 15.000 dólares. Para sostener el engaño, utilizaron videos y audios creados con inteligencia artificial que replicaban la voz y la apariencia del actor. “Me decía ‘mi amor’ y que me iba a devolver la plata”, contó la mujer.

Mujer terminó entregando 15.000 dólares
Mujer terminó entregando 15.000 dólares pensando que conversaba con actor de Hollywood. (Imagen Ilustrativa Infobae)

La víctima denunció el hecho ante el FBI y presentó tres reportes, pero hasta el momento no ha recibido una solución concreta. De acuerdo con las primeras investigaciones, los servidores utilizados para la estafa estaban ubicados en Nigeria y Estados Unidos.

Especialistas en ciberseguridad advierten que este tipo de delitos crece en todo el mundo. En China, por ejemplo, se registraron múltiples casos en los que delincuentes realizan videollamadas simulando ser familiares de la víctima para pedir transferencias de dinero.

En otros países, la suplantación de políticos a través de audios falsos también generó preocupación: votantes de Nueva Hampshire recibieron mensajes con la voz clonada de Joe Biden que los instaba a no participar en elecciones primarias.

Mujer denunció haber sido estafada
Mujer denunció haber sido estafada con IA. - (Imagen Ilustrativa Infobae)

El impacto alcanza también al sector privado. Un informe de la firma de ciberseguridad Regula reveló que el 49% de las empresas ya sufrió estafas con audio o video manipulados, muchas de ellas mediante la suplantación de gerentes o directivos que ordenan transferencias de dinero.

Para Cecilia Danesi, directora del máster en Gobernanza Ética de la IA en la Universidad Pontificia de Salamanca, el problema radica en la sofisticación que han alcanzado las herramientas digitales. “Hoy se puede replicar la voz o la imagen de una persona de manera casi imperceptible para el ojo humano”, explicó.

En el plano legal, el abogado Jorge Luis Litvin advirtió que aún no existe una figura específica que castigue la suplantación de identidad. “La falta está vinculada a códigos procesales desactualizados que dificultan el éxito de las causas, así como a la escasa capacitación de los operadores judiciales”, señaló.

Sujetos estafan a mujer usando
Sujetos estafan a mujer usando la IA. (Freepik)

Mientras se avanza en soluciones normativas, los expertos recomiendan medidas de prevención. Entre ellas: activar el doble factor de autenticación, restringir la información personal publicada en redes sociales, establecer palabras clave con familiares para verificar identidades y desconfiar de mensajes que transmitan urgencia o provengan de supuestas figuras famosas.

“El peligro de fondo es que la inteligencia artificial ha bajado drásticamente la barrera de entrada al cibercrimen. El riesgo no reside en la herramienta, sino en su uso”, concluyó Litvin.