Por primera vez desde que fue pintada, la Mona Lisa sonrió, se movió y habló. Y esto deslumbró a mas de un millón de personas que vieron el video en Youtube, incrédulos de que la icónica imagen se moviera de manera tan natural enfrente de sus ojos.

O por lo menos eso fue lo que pareció gracias al programa diseñado por científicos de Samsung en Rusia que fue utilizado para "darle vida" a la figura de La Giaconda, la obra maestra de Leonardo da Vinci. Este grupo además creó "retratos vivientes" de fotos de Marylin Monroe, Salvador Dalí y Albert Einstein, entre otros.

Mejora de la tecnología 

Estos retratos muestran un nuevo método para crear videos creíbles a partir de una sola imagen. Con solo unas pocas fotografías de caras reales, los resultados mejoran dramáticamente, produciendo lo que los autores describen como "cabezas parlantes fotorrealistas". Estos videos pueden hacer parecer que las personas en los retratos hablen o se muevan con casi total naturalidad.

Las imágenes generadas por computadora pueden ser muy verosímiles. De hecho, varios sitios web, como  WhichFaceIsReal.com, retan a sus usuarios a  identificar qué persona retratada es real y cuál es una imagen falsa generada por algoritmos de Inteligencia Artificial utilizando fotos de personas reales. A pesar de que estas son solo imágenes y no retratos, los investigadores explican que el concepto no es tan diferente para crear un video deepfake. 

Usando la "metadata" extraída de bancos de imágenes online, el algoritmo diseñado por el equipo desglosa los "puntos de referencia faciales" de un retrato y luego asigna una fisonomía personalizada en él. Al tener más retratos sobre los cuales crear esta fisonomía, más real podrá ser el video creado. Sin embargo, como se ve en el video de la Mona Lisa "parlante", solo una imagen de buena calidad es suficiente para crear un vídeo convincente.

Estas mejoras en videos deepfake, a pesar de ser una maravilla tecnológica, presentan un gran problema para nuestra habilidad de diferenciar entre imágenes reales y imágenes falsificadas por programas sofisticados.

Los deepfakes están siendo un problema creciente hace ya algunos años. Se volvieron conocidos cuando un usuario de Reddit utilizó imágenes de películas de celebridades como Gal Gadot, Emma Watson y Scarlett Johanson para crear películas pornográficas falsas.

La tecnología de deepfakes permite insertar la cara de una persona para crear un video falso. Esta es una imagen de un video porno falso de Gal Gadot.
La tecnología de deepfakes permite insertar la cara de una persona para crear un video falso. Esta es una imagen de un video porno falso de Gal Gadot.

El año pasado, el actor y director de cine Jordan Peele publicó un video en el que imitaba la voz de el ex presidente estadounidense Barack Obama y la superponía a un video real del ex mandatario estadounidense, llamando a Donald Trump "un completo idiota". Este video falso era parte de un esfuerzo de Peele y BuzzFeed para concientizar al público sobre los peligros que pueden tener estos videos, especialmente el el ámbito político.

Deepfakes en política

Hace un par de semanas, un video deepfake de Nancy Pelosi fue compartido por Rudy Giulliani, el abogado del presidente estadounidense Donald Trump, en Twitter.  El video aparecía en la cuenta de Facebook de Political Watch Dog, un grupo de derecha que distribuye videos por varias plataformas online, y fue visto más de 2,4 millones de veces antes de que éste fuera borrado por violar los términos y condiciones de Facebook. El video era de Pelosi hablando sobre Trump y había sido modificado para que ella pareciera incoherente, balbuceando de manera lenta, tartamudeando y pareciendo borracha.

Después de que el Washginton Post publicara una nota advirtiendo de que este video, y otro tuiteado por el Presidente Trump, parecieran estar modificados, Giullani borró el Tweet y se quejó porque el video parecía real. El periódico cuenta que la velocidad de estos vídeos había sido reducida a un 75%, y que el tono de voz de Pelosi había sido modificado para parecerse más al verdadero. Sin un ojo critico, los videos parecían reales. Y a pesar de que las plataformas online lo borraron, el daño ya estaba hecho.

El video ya había sido compartido por miles de personas y visto por cientos de miles más. Y a pesar de que muchos de estos fueron dados de baja por Youtube, Twitter o Facebook, muchos usuarios estaban convencidos de que Pelosi realmente había dado un discurso mientras que estaba ebria.

Un ejemplo era el de un usuario que decidió volver a publicar una copia del video en Youtube, después de que este fuera dado de baja por la plataforma por ser falso. El video, subido por un usuario con un avatar del lema de campaña de Trump, aparecía con esta descripción:

"La Presidenta de la Cámara de Representates, Nancy Pelosi, borracha dando una entrevista balbuceando sobre cómo el presidente Trump esta involucrado en un "encubrimiento". No se avergonzaron lo suficiente por de la (falsa) "colusión rusa". Compartan esta desgracia …"

Evidentemente, el usuario no se percataba de la falsead del video y lo utilizaba para fomentar una dura critica sobre la legisladora estadounidense. El temor es que este problema se incremente en épocas electorales.

Posible repercusiones de videos falsos 

"Nada me sugiere que esto será utilizado masivamente para generar deepfakes en casa" dijo en un comunicado Tim Hwang, director de Ética y Gobernabilidad de la Iniciativa de Harvard-MIT. "No a corto, mediano o incluso a largo plazo ". Aduce qué las razones tienen que ver con los altos costos y el conocimiento técnico necesario para crear falsificaciones de calidad, barreras que no desaparecerán pronto.

Cualquier persona con conocimientos de computación y una computadora portátil decente puede hacerlo a fondo, aunque los videos más convincentes requieren un esfuerzo adicional. Pero una alteración básica, como la desaceleración que se hizo con Pelosi también funcionaría.

Según una encuentra realizada por Axios, ninguno de los 24 candidatos presidenciales del Partido Demócrata, ni la campaña de Trump para el 2020, tenían una política diseñada para lidiar con posibles deepfakes de ellos.

Casi todos los candidatos argumentaron que la responsabilidad era de los medios y redes sociales. Pero estos también reconocieron que si un convincente deepfake de ellos se publicara, podía tener consecuencias catastróficas para sus campañas. Los demócratas también dijeron que ellos dependerían del Comité Nacional Democrata (DNC, por sus siglas en inglés) para ayudarlos, pero el DNC ha dicho que en realidad, la responsabilidad le caería a cada candidato y su campaña.

La verdad es que los deepfakes van a seguir ocurriendo, sin importar si las campañas, los medios o las redes sociales estén listas para ellos.