Los deep fakes hace que sea cada vez más difícil distinguir qué es cierto y que no. No hay, en la actualidad, tecnología capaz de identificar, sin margen de error, si un video o audio, hecho con este tipo de tecnología (redes neuronales) fue falsificado o no.

Los sistemas para modificar y editar los contenidos audiovisuales existen hace años pero cada vez hay más opciones para crear estos contenidos con facilidad. Si bien se puede utilizar la tecnología para crear videos ocurrentes o divertidos, a veces son una forma de hacer circular desinformación y es ahí cuando se vuelve un verdadero problema.

Son varios los investigadores que están trabajando en tecnologías para encontrar una solución a este tema. Y los ratones podría ser la punta del ovillo, al menos eso creen algunos expertos de la Universidad de Oregon.

Los deep fakes permiten combinar rostros o cambiar por completo la cara de una persona para que parezca que está diciendo algo que jamás dijo.
Los deep fakes permiten combinar rostros o cambiar por completo la cara de una persona para que parezca que está diciendo algo que jamás dijo.

Un equipo de investigación del Instituto de Neurociencia esa entidad está estudiando los mecanismos computacionales por medio de los cuales el sistema auditivo de los ratones es capaz de identificar audios falsos. Con esa información se podría entrenar algoritmos para que sean capaces de identificar los deep fakes.

Los ratones tienen un sistema auditivo similar al de los humanos, pero son incapaces de identificar palabras. Y justamente esto podría jugar a favor, porque eso haría que estos animales puedan identificar errores sutiles en un discurso, como por ejemplo cuando se pronuncia una letra por otra, algo que puede ocurrir en los fakes.

Los humanos, en cambio, tienden de pasar por alto las pequeñas variaciones en un discurso con el fin de entender la palabra o frase que se está enunciando. Así, por ejemplo, podría pasar desapercibida la pronunciación de una "b" en vez de una "p".

El equipo de investigación estuvo entrenando a ratones para que puedan diferenciar los sonidos de diferentes pares fonéticos con el fin de que puedan identificar esos pequeños errores que pueden darse en los videos o audios falsos.

La idea es monitorear la actividad cerebral de los ratones cuando distinguen entre un contenido falso y otro real para luego utilizar esa información en el entrenamiento de algoritmos que podrían usarse para detectar los deep fakes.

MÁS SOBRE ESTE TEMA: