Florencia Kirchner no será candidata en las próximas elecciones tal como se prentedió instalar a partir de algunas publicaciones en redes sociales (Reverso).

En estos días comenzó a circular en Facebook publicaciones que indican que Florencia Kirchner será candidata para las próximas elecciones y que por eso regresará al país desde Cuba "con fueros". Sin embargo, tal como surge de la investigación de Reverso, esto no es así: la hija de los ex mandatarios Néstor y Cristina Kirchner no figura en ninguna lista oficial.

El perfil del falso Pichetto de Twitter.
El perfil del falso Pichetto de Twitter.

También era falso el video que circuló por redes sociales donde se muestra un gran caudal de agua pasando por la represa Yacyretá que busca mostrar el supuesto mal estado de la estructura y vincularlo al corte masivo del 16 de junio que afectó a la Argentina, Uruguay y sur de Brasil. Fue apenas uno de los tantos fakes que circularon esos días, vinculados a ese incidente.

Estos son algunos casos que se publicaron en el último tiempo pero no son los únicos: hay más, muchos más. Y la campaña de la desinformación va más de las fronteras. Los datos falsos y las fake news se viven en todo el mundo.

Jair Bolsonaro, presidente de Brasil (Reuters)
Jair Bolsonaro, presidente de Brasil (Reuters)

La campaña presidencial de Brasil estuvo atravesada por las noticias falsas y engañosas que se viralizaron, principalmente, a través de WhatsApp. Durante ese tipo se habló de un supuesto "kit gay" que se habría repartido en las escuelas primarias. Se trata de un libro de educación sexual que, según afirmaban los adherentes a Bolsonaro, habría sido aprobado por el Ministerio de Educación cuando Haddad estaba al frente. En realidad, el libro formaba parte del proyecto "Escuela sin homofobia",  y originariamente estaba destinado a educadores. Sin embargo, el material didáctico nunca llegó a ser aprobado ni distribuido.

Geert Wilders, el líder del Partido por la extrema derecha de los Países Bajos (PVV), tuiteó una foto adulterada donde mostraba a su rival político Alexander Pechtold (líder del partido social liberal de Holanda) en una manifestación. El rostro de Pechtold fue añadido digitalmente.
Geert Wilders, el líder del Partido por la extrema derecha de los Países Bajos (PVV), tuiteó una foto adulterada donde mostraba a su rival político Alexander Pechtold (líder del partido social liberal de Holanda) en una manifestación. El rostro de Pechtold fue añadido digitalmente.

El 6 de febrero de 2017 Geert Wilders, el líder del Partido por la extrema derecha de los Países Bajos (PVV), tuiteó una foto de su rival político Alexander Pechtold (líder del partido social liberal de Holanda) en una manifestación.

En la imagen se lo ve a Pechtold, junto a otros manifestantes, sosteniendo un cartel que dice: "El Islam dominará el mundo, la libertad puede irse al infierno". Otros aparecen en la foto co carteles que dicen: "Shariah para los Países Bajos" y "El Islam conquistará Europa".

Wilders publicó esa foto con el siguiente texto: "Pechtold se manifiesta con los terroristas de Hamas. ¿Cuál es el siguiente paso?" Al poco tiempo el mensaje se viralizó y generó repercusiones de todo tipo. Enseguida se supo que la foto había sido adulterada. La imagen ilustraba una manifestación que se había hecho en 2009 y el rostro de Pechtold había sido añadido con PhotoShop, tal como dieron a conocer algunos usuarios.

La mentira se supo, pero para ese entonces el daño probablemente ya estaba hecho. La imagen sigue publicada en Twitter, disponible para quien quiera ver y creer ese engaño.

El presidente francés Emmanuel Macron presentó a fines del año pasado un proyecto de ley para luchar contra las noticias falsas (Iroz Gaizka/Pool via REUTERS)
El presidente francés Emmanuel Macron presentó a fines del año pasado un proyecto de ley para luchar contra las noticias falsas (Iroz Gaizka/Pool via REUTERS)

Durante la campaña electoral de 2017, Macron también fue víctima de noticias falsas que le atribuían la propiedad de cuentas offshore y un vínculo extramatrimonial. Las fake news muchas veces van más allá de la política. En la India, al menos 30 personas murieron fruto de golpes y linchamientos el año pasado. La distribución de contenido falso (fotos y videos) a través de WhatsApp alertando sobre supuestos secuestradores de niños en diferentes comunidades derivó en una situación de caos y paranoia que se cobró decenas de vidas.

Cómo saber si un contenido es falso o no

No hay una técnica que sea infalible pero hay varias estrategias que pueden servir de indicio. Por empezar, antes de compartir cualquier audio, video o foto que llegue por las redes sociales o publicados en supuestos sitios de noticias, preguntarse de dónde viene, dónde se publicó, y quién lo hizo.

Existen sitios que ofrecen plantillas para que los usuarios creen sus propias noticias falsas a modo de "broma", pero que tranquilamente pueden captar la atención de cualquier desprevenido. En algunos casos, hay páginas que tienen una estética o nombre similar a un sitio de noticias pero no son tales. Basta con mirar bien el nombre de la URL para no caer en estas trampas.

La mayoría de las veces, las fake news son resultado de la falta de contexto. Se viraliza un audio por WhatsApp y se lo atribuye a una persona que no es tal. Otras veces, se publica una foto vieja en alguna red social y se la vincula a un hecho actual.

Hacer una búsqueda en la web

Muchas veces basta con hacer una simple búsqueda en la web para saber si el dato es falso o no. Se ingresa en el buscador el tema en cuestión y se verifica si el dato salió confirmado o desmentido en algún sitio de noticias conocido y confiable.

Cabe recordar, que en el sitio Reverso se publican a diario información sobre los falsos virales que circulan en la web. Reverso es un proyecto colaborativo del que participan 100 entidades y medios de comunicación, entre ellos Infobae; y que está coordinado por Chequeado, AFP Factual, First Draft y Pop-Up Newsroom.

Fotos: búsqueda inversa

En Google Chrome se puede hacer una búsqueda inversa simplemente pulsando el botón derecho sobre la imagen que se quiere rastrear. Sino, desde cualquier otro navegador se puede ingresar a Google Imágenes y subir la foto o pegar la URL de la imagen para buscarla en la web.

se puede hacer una búsqueda “inversa” de imágenes y comprobar si otros sitios la reprodujeron. Solo hay que ingresar a Google Imágenes y elegir el ícono de la cámara: “Buscar por imágenes”
se puede hacer una búsqueda “inversa” de imágenes y comprobar si otros sitios la reprodujeron. Solo hay que ingresar a Google Imágenes y elegir el ícono de la cámara: “Buscar por imágenes”

De este modo se sabrá si la imagen ya salió publicada previamente. A veces ocurre que se hace circular la imagen de alguna situación como que fuera actual y, en realidad, retrata algún episodio aconteCido hace varios años en otro sitio.

Los datos EXIF

Dentro de cada foto hay un gran cantidad de metadatos, que pueden incluir desde la fecha en que fue tomada hasta , la cámara almacena un montón de información: desde el equipo con que se hizo la imagen hasta la apertura, el tiempo de exposición y la fecha.

Photo Exif editor permite ver y modificar los metadatos de las imágenes.
Photo Exif editor permite ver y modificar los metadatos de las imágenes.

Esos datos se guardan en formato Exif y se pueden verificar simplemente, desde el explorador de archivos en Windows o Finder en Mac presionando botón derecho sobre la imagen. Desde el móvil, se presiona también sobre la foto y se elige la opción "detalles".

Cabe destacar que esta técnica no es infalible, ya que existen programas que permiten modificar los metadatos, como por ejemplo Photo Exif Editor.

Hacer un análisis de la imagen para ver si fue alterada

Forensically es un sitio que cuenta con varias herramientas para analizar las imágenes e identificar si fueron trucadas.
Forensically es un sitio que cuenta con varias herramientas para analizar las imágenes e identificar si fueron trucadas.

Existen herramientas digitales como FotoForensics o Forensically. Este último sitio comprende una serie de herramientas digitales para analizar en detalle las fotos. Una de ellas sirve para detectar si algún fragmento fue modificado con la herramienta clonar del programa de edición Photoshop. Hay otros elementos que también que pueden ayudar a buscar diferentes indicios y así deducir si una foto fue adulterada y en qué fragmentos.

La foto de la izquierda, que muestra a Rafael Videla junto a Macri está trucada. La original muestra al dictador  junto a Alfredo Martínez de Hoz, ministro de Economía durante la última dictadura militar (Chequeado).
La foto de la izquierda, que muestra a Rafael Videla junto a Macri está trucada. La original muestra al dictador  junto a Alfredo Martínez de Hoz, ministro de Economía durante la última dictadura militar (Chequeado).

Cabe destacar que el hecho de que haya sido editada no necesariamente implica que se trate de una foto que busca falsear algún dato, habrá que ver en qué zona en particular de la foto se nota un pixelado extraño y cuál fue el objetivo de falsear ese fragmento en particular. En 2015, por ejemplo, circuló una falsa imagen donde se mostraba a Mauricio Macri junto al dictador Rafael Videla. La foto había sido modificada con Photoshop.

Los videos

Amnistía Internacional cuenta con una herramienta llamada YouTube DataViewer que permite ingresar la URL de un video y luego ver en qué fecha y hora se subió, así como visualizar las imágenes en miniatura vinculadas a ese clip. Una búsqueda inversa de esas imágenes podría permitir saber si el clip fue publicado anteriormente. También verificar si hay menciones anteriores en redes y plataformas.

Los deep fakes

Esta técnica permite poner en la boca de cualquier persona palabras que no dijo, utilizando tecnología basada en machine learning. Así, por ejemplo, fueron los deep fakes que se hicieron sobre Obama y Mark Zuckerberg. Allí se tomaron videos de ellos hablando en diferentes situaciones y se modificó el audio para que pareciera que estaban diciendo otra cosa.

En ambos casos fueron videos creados para concientizar sobre el alcance de este tipo de tecnología. Y al difundirlos se avisó que se trataban de clips creados con la técnica deep fake. De nuevo: el objetivo no fue engañar sino alertar.

En la actualidad, la mayoría de los videos que se utilizan para hacer engaños no recurren a esta técnica: a veces basta con publicar un clip viejo fuera de contexto o simplemente ralentizarlo.

Pero en el caso de los deep fakes las técnicas son más avanzadas y es más complejo detectar el engaño. Esos videos falsos son creados de manera automática con una herramienta basada en un sistema de aprendizaje automático llamado redes generativas antagónicas (GAN, por sus siglas en inglés).

Se trata de dos redes neuronales que compiten entre sí para lograr un resultado cada vez más realista. Hay una red que es el generador y produce imágenes; y otra red que es el discriminado y se encarga de adivinar, al ver esos contenidos, si son reales (porque vienen del set de datos de entrenamiento) o si son falsas (producidas por el generador).

Los videos de han modificado desde siempre; para crear efectos especiales, para hacer una película por ejemplo. La diferencia hoy en día es que esto se automatizó y lo que antes requería trabajo manual y gran inversión, hoy se puede hacer fácilmente por medio de estas herramientas digitales.

¿Se puede detectar un deep fake?

Detectar un deep fake es más difícil que en otros casos, aunque no necesariamente imposible. Hay algunos indicios que pueden servir de ayuda y es que a veces, la caras creadas por deep fakes casi no parpadean. Esto ocurre cuando el entrenamiento del sistema se hace con imágenes fijas que tienden a mostrar los rostros con ojos abiertos. Pero este indicio puede fallar, ya que las técnicas se perfeccionan.

La Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA por sus siglas en inglés) del Departamento de Defensa de Estados Unidos está trabajando junto a varios institutos de investigación para desarrollar una herramienta que permita identificar de manera automática estos deepfakes.

SEGUÍ LEYENDO: