Suplantan al futbolista Luis Díaz en Instagram: puedes caer si no conoces esta estafa

En el contenido falso se asegura que el jugador colombiano creó un proyecto para ayudar a los colombianos

Compartir
Compartir articulo
El video fue publicado en Instagram y buscan imitar la voz del futbolista colombiano.

Los deepfakes cada día son más comunes y cercanos a los usuarios. Este tipo de contenido generado por inteligencia artificial busca imitar el rostro y la voz de una persona, lo que le permite a los ciberdelincuentes crear estafas como una reciente que está circulando en redes sociales en la que Luis Díaz, futbolista colombiano, es usado como carnada.

A través de historias en Instagram y pagando pauta publicitaria, los atacantes están captando víctimas para hacerlas creer que el jugador del Liverpool está abriendo un programa para ayudar a personas en Colombia y darles dinero.

Cómo es el deepfake de Luis Díaz

El contenido se presenta a través de una noticia, presentada por un noticiero en Colombia y en la que se afirma que el jugador dio una entrevista en la que habló de un proyecto con Daniela Reyes para ayudar a los colombianos.

Después de la presentación de la noticia, aparece en pantalla un deepfake de Díaz hablando sobre este programa, en el que prometen a los usuarios independizarse económicamente usando únicamente su celular y la conexión a internet.

La imagen del jugador colombiano fue usada para robar a los usuarios en Instagram. (AP)
La imagen del jugador colombiano fue usada para robar a los usuarios en Instagram. (AP)

Luego aparece una familia, también falsa, hablando del dinero que han ganado gracias al futbolista y cómo han aprovechado el tiempo gracias a esa ayuda. A continuación aparece una pareja hablando de lo mismo y diciendo que ya pudieron comprar un carro con ese dinero. Además, se muestran imágenes de la aplicación de un banco colombiano con transacciones hechas por Daniela Reyes.

Junto al video, la publicación está acompañada con un mensaje que invita a los usuarios a ganar dinero a través de Telegram y para hacerlo deben ingresar a un link que aparece en la parte inferior.

Este es una estafa que se aprovecha de la inteligencia artificial, de la importancia que tiene Luis Díaz para los colombianos y la narrativa tradicional de ganar dinero fácil, desde casa y con el celular.

La imagen del jugador colombiano fue usada para robar a los usuarios en Instagram. (Instagram)
La imagen del jugador colombiano fue usada para robar a los usuarios en Instagram. (Instagram)

Para crear el contenido, los ciberdelincuentes toman registros de voz del futbolista y de la presentadora de noticias, para generar copias cercanas a las voces reales. Además de videos que estén en internet para crear las imágenes en movimiento que acompañan a la falsa noticia.

Si bien, en este caso es fácil detectar que se trata de información falsa, por la calidad de la imagen, la voz y el contexto de la noticia, es posible que algunos usuarios caigan en la trampa al ver en pantalla el rostro de una figura como Díaz y los logos del noticiero.

Por ahora no hay conocimiento de qué tipo de estafa buscan los delincuentes en este caso, pero normalmente estos casos están detrás de datos personales de las víctimas y dinero, ya que suelen pedir un pago inicial para entrar en el supuesto proyecto que promete un retorno mucho mayor.

Tanto las imágenes del inexistente arresto del expresidente del Trump, así como las Papa con un abrigo blanco o las de Macron en una protesta, son ejemplos de deepfakes creados con Inteligencia Artificial.
Tanto las imágenes del inexistente arresto del expresidente del Trump, así como las Papa con un abrigo blanco o las de Macron en una protesta, son ejemplos de deepfakes creados con Inteligencia Artificial.

Cómo identificar un deepfake

Existen cuatro trucos para saber que estamos viendo contenido falso generado por IA y de esa forma evitar estafas, ya que esta tecnología mejora continuamente y cada vez se hace más difícil diferenciarlo de lo real.

1. La voz

Para crear un deepfake se necesitan audios pregrabados, que pueden no sonar de manera natural y el resultado es una voz muy diferente a la original. El caso de Luis Díaz es un ejemplo claro.

2. Lenguaje no verbal

Para facilitar la creación de contenido falso, los delincuentes usan patrones que luego se superponen sobre los rostros. Por eso es posible encontrar fallos en la sincronización del audio y el movimiento de los labios, los ojos y la cabeza.

3. Existen desproporciones

La creación de rostros no es una tarea complicada. Pero cuando hay movimientos es posible que se presenten situaciones extrañas como desproporciones de tamaño entre la cabeza y el cuerpo o las expresiones de la cara.

4. Los ojos y la boca

Los movimientos poco naturales de la boca y los ojos son otra clave. Por ejemplo, es posible que la persona replicada no parpadee como lo haría un humano real, o también es posible que los labios cambien de color, al igual que la forma de la boca y la lengua.