Un día amanecimos y nuestras redes sociales se plagaron de rostros de personas de la tercera edad. Gracias a la aplicación FaceApp pudimos ver cómo iban a ser nuestros amigos, familiares, incluso personajes del mundo del deporte, la farándula y la política, cuando envejecieran. Divertido, sí. Hasta que comenzaron a aparecer las voces de los expertos alertando sobre el potencial uso de esos datos biométricos por parte de la plataforma rusa, dueña de la aplicación.

Los políticos, blanco fácil de los deepfake. Foto: Fernando Calzada.
Los políticos, blanco fácil de los deepfake. Foto: Fernando Calzada.

Al furor generado por FaceApp (que ya cuenta con 150 millones de usuarios en el mundo) se suma el polémico documental Nada es privado que Netflix estrenará la próxima semana. En este contexto, y en pleno auge de las fake news (noticias falsas) y deepfakes (videos manipulados, como el de la ministra de Seguridad Patricia Burrich), vale preguntarse: ¿somos dueños de nuestros datos? El especialista en defensa, política exterior y ciberseguridad, Juan Battaleme, explica a DEF cómo se puede manipular la información que obtienen las diversas plataformas y las consecuencias de no generar conciencia temprana sobre la protección de nuestros datos.

-En términos de información, ¿existe lo privado?
-Nada es privado y no tomamos en consideración las consecuencias que esto tiene. Las aplicaciones como FaceApp, que se utilizan para transformar el rostro, o aquellas que añaden ilustraciones y efectos a nuestras caras, funcionan a partir de miles de cientos de puntos de datos. Estos puntos de datos, también pueden ser utilizados para hacer reconocimiento facial (como el caso de Apple, que utiliza el rostro como sistema de seguridad de iPhone), presentar documentación falsa o alimentar inteligencias artificiales, que después crean rostros y personas que no existen. Efectivamente: han surgido imágenes de personas ficticias creadas a partir de una combinación de rasgos determinados por la inteligencia artificial.

“Es necesario cumplir con normas de protección de esa información”. Foto: Fernando Calzada.
“Es necesario cumplir con normas de protección de esa información”. Foto: Fernando Calzada.

-Después de Cambridge Analytica (N. de la R.: la empresa de consultoría analítica que habría empleado su plataforma para obtener de forma ilegal los datos de millones de usuarios de Facebook, luego utilizados en las elecciones presidenciales de EE.UU. a favor de Donald Trump), ¿se aprendió algo?
-Nada. El problema es que necesitamos estas herramientas para comunicarnos y, al mismo tiempo, son súper penetrables. Entonces, a la larga estamos siendo cada vez más transparentes con tecnologías cuyo uso es cada vez más opaco; que penetran y dejan todo demasiado expuesto. Hay que ser conscientes de que un video que uno hace en la intimidad puede ser digitalmente modificado. En definitiva: ya nada es privado y, además, todo está sujeto a manipulación.

¿Qué sentido tiene saber cómo vamos a vernos con 70 años? Envejecer es algo inevitable, pero aun así queremos ver y adelantar el futuro. ¿Para qué? No lo pensamos. Las aplicaciones, como FaceApp, explotan nuestra vulnerabilidad.

-¿Eso es irreversible?
-Es irreversible. Aun así se puede generar consciencia y limitar el volumen de información. Muchos jóvenes hacen fotos y videos que, más tarde, pueden ser modificados. Hay que educarlos sobre eso. Las tecnologías digitales están generando una marca indeleble que va a tener muchas consecuencias. Las aplicaciones explotan nuestra vulnerabilidad. Por ejemplo, el morbo de ver el futuro. ¿Qué sentido tiene saber cómo vamos a vernos con 70 años? Envejecer es algo inevitable, pero el ser humano quiere ver y adelantar el futuro. ¿Para qué? No lo pensamos.

La tecnología puede convertirse en nuestra principal enemiga si no se toman los recaudos necesarios. Foto: Fernando Calzada.
La tecnología puede convertirse en nuestra principal enemiga si no se toman los recaudos necesarios. Foto: Fernando Calzada.

-Además de las aplicaciones, ¿cómo pueden el sistema obtener más datos de una persona?
-Los datos biométricos de las personas que van por la calle y que se levantan con las cámaras son información. Lo mismo sucede con el escaneo de la huella dactilar para ingresar al lugar de trabajo. Son datos que, mal utilizados pueden usarse en contra de la población y, por ejemplo, habilitar la apertura de un teléfono ajeno. Es necesario cumplir con normas de protección de esa información.

Al único al que no le mentimos es a Google, allí buscamos lo que somos.

-El manejo y control de estos datos, ¿se convirtió en un arma para los Estados?
-Absolutamente. Una persona puede tener proyección política y, quizá, un adversario usa imágenes suyas (reales o ficticias) en su contra, como ocurrió en EE. UU. y en Europa durante las elecciones. La clave, como postula el libro LikeWar, es entender que son operaciones de información a escala nacional o global. Antes, la guerra de la información se producía en un determinado teatro de operaciones. Ahora cambió la escala. Por ejemplo, hoy se puede armar un video en el que el ejército de un país invade a otro país cuando en realidad no está sucediendo.

El académico Juan Battaleme advierte sobre la importancia de educar en estos temas.  Foto: Fernando Calzada.
El académico Juan Battaleme advierte sobre la importancia de educar en estos temas.  Foto: Fernando Calzada.

-¿Es cierto que el negocio de los datos mueve miles de millones de dólares?-A través de un dato podés construir el perfil de una persona: perfiles económicos, perfiles de actividades, entre otras cosas. Los datos revelan la vulnerabilidad de la gente. Dr. House, en la serie, decía que todos mienten; sin embargo, al único al que no le mentimos es a Google, allí buscamos lo que somos. Los efectos de las tecnologías se ven una vez desplegados. Entonces la discusión es hacia adelante y sobre efectos concretos. No hay que evitar que proliferen, solo dejar de entregar toda la información tan fácilmente.