Engañaron a varios políticos europeos a través de videollamadas con un deepfake

Una persona utilizó un filtro y se hizo pasar por Leonid Volkov, aliado del líder ruso Navalny. Entre los políticos engañados se encuentra Rihards Kols, responsable de la comisión de asuntos exteriores de Letonia y Tom Tugendhat, presidente del comité de asuntos exteriores del Reino Unido

Compartir
Compartir articulo
Leonid Volkov, aliado del opositor ruso Alexei Navalny, durante una conferencia de prensa en Berlín, Alemania el 21 de agosto de 2020 (REUTERS/Fabrizio Bensch/File Photo)
Leonid Volkov, aliado del opositor ruso Alexei Navalny, durante una conferencia de prensa en Berlín, Alemania el 21 de agosto de 2020 (REUTERS/Fabrizio Bensch/File Photo)

En los últimos días, diferentes políticos europeos fueron engañados por usuarios que, utilizando deep fake, se hacían pasar por una figura de la oposición rusa durante videollamadas. Las víctimas, integrantes del Parlamento Europeo, creían estar hablando con Leonid Volkov, aliado del líder ruso Navalny, pero era todo un engaño.

Entre los políticos engañados se encuentra Rihards Kols, responsable de la comisión de asuntos exteriores de Letonia, Tom Tugendhat, presidente del comité de asuntos exteriores del Reino Unido, así como otros políticos de Estonia y Lituania, según publicó The Guardian.

Kols subió una fotografía de Leonid Volkov, un aliado de Navalny, y una captura de pantalla tomada de la videollamada. Volkov dijo que los dos se veían prácticamente idénticos. Y se preguntó cómo hicieron para poner el rostro en la llamada vía Zoom. Concluyó con una frase contundente: “Bienvenidos a la era de los deepfake”

Los deep fakes que permiten, por medio del uso de redes neuronales, hacer montajes donde cuesta distinguir un original de un producto creado artificialmente. En los últimos años este tipo de tecnología viene avanzando a pasos agigantados. Incluso hay apps que le permiten a cualquier usuario, en pocos pasos, crear sus propio contenido donde intercambian un rostro en el cuerpo de otro y hacen cantar o bailar al personaje a su gusto.

Estas versiones están pensadas para crear parodias pero existen herramientas más sofisticadas aún basadas en la misma tecnología de aprendizaje profundo que permite crear contenido cada vez más realista. El riesgo de todo esto es que se utilicen para propagar desinformación o generar engaños del tipo mencionado anteriormente.

El 16 de marzo los políticos fueron contactados por alguien que se hizo pasar por Volkov, que solicitó una reunión con la comisión de exteriores para tratar el intento de asesinato de Navalny y los presos políticos en Rusia. La reunión se produjo con Kols el 23 de marzo, aunque anteriormente habría habido reuniones virtuales con políticos lituanos. Pero todo era una trampa. Ellos creían estar hablando con el opositor ruso pero no era más que un deep fake, según detalla Xataka.

El verdadero Volkov y su versión deep fake en la videollamada (captura compartira por Rihards Kols en su cuenta de twitter: @RihardsKols)
El verdadero Volkov y su versión deep fake en la videollamada (captura compartira por Rihards Kols en su cuenta de twitter: @RihardsKols)

Kols dijo que una persona que afirmaba ser Volkov se le escribió un mail y le pidió hacer una una videollamada para debatir el apoyo a los presos políticos rusos y la anexión rusa de Crimea. Un rato después se dio cuenta de que había sido parte de un engaño.

“Está claro que la llamada era de la decadencia de la verdad o de la posverdad y los pos hechos tiene el potencial de amenazar seriamente la seguridad y estabilidad de los países, gobiernos y sociedades locales e internacionales”, destacó el político, según publica el sitio de noticias británico.

Volkov acusó a un dúo ruso llamado Vovan y Lexus, de estar detrás de esa llamada. Sin embargo Lexus, sobrenombre de Alexei Stolyarov, negó haber usado un filtro para parecerse a él.

La policía Europea ya había alertado sobre el crecimiento de este tipo de tecnología y las implicancias que podrían tener a futuro. Lo mismo hizo recientemente el FBI. La agencia alertó que aumentará la circulación de contenido digital manipulado en el próximos 12 a 18 meses y dijo que este tipo de material engañoso podría ser utilizado para llevar adelante diferentes ciberdelitos tal como campañas de phishing, es decir suplantación de identidad: esto es hacerse pasar por alguien más para obtener información confidencial o robar datos.

Una herramienta para detectar deepfakes

Existen diferentes desarrollos para ayudar a identificar este tipo de engaños. Una de las más recientes fue desarrollada por investigadores de la Universidad de Buffalo. Se trata de una sistema que identifica automáticamente las fotos falsas analizando los reflejos de luz en los globos oculares de los usuarios retratados y tiene, según sus creadores, un 94% de efectividad.

"Los dos ojos deben tener patrones reflectantes muy similares porque ven lo mismo. Es algo que normalmente no notamos cuando miramos un rostro", destacó Siwei Lyu, autor principal de la investigación
"Los dos ojos deben tener patrones reflectantes muy similares porque ven lo mismo. Es algo que normalmente no notamos cuando miramos un rostro", destacó Siwei Lyu, autor principal de la investigación

Los dos ojos deben tener patrones reflectantes muy similares porque ven lo mismo. Es algo que normalmente no notamos cuando miramos una cara”, explicó, en una publicación difundida por la universidad, el autor principal de la investigación, Siwei Lyu, PhD, profesor de Innovación SUNY Empire en el Departamento de Ingeniería y Ciencias de la Computación.

Sin embargo, la mayoría de las imágenes generadas por inteligencia artificial, incluidas las imágenes producidas por redes generativas antagónicas (GAN), no logran hacer esto de manera precisa, posiblemente debido a que se emplean una multiplicidad de fotos combinadas para generar la imagen falsa.

No es la primera vez que Lyu se focaliza en un desarrollo de este tipo. También investigó y llegó a la conclusión de que en los videos de deepfake los usuarios parpadean menos o lo hacen de un modo inconsistente, lo cual también puede ser un indicio para identificar este tipo de contenido.

También ayudó a crear el sitio Deepfake-o-meter, que analiza videos y ayuda a identificar si un clip es real o un deep fake. No es 100% eficaz, sino una herramienta más para ayudar a evaluar contenidos digitales.

SEGUIR LEYENDO: