Deepfakes: ¿cómo detectar los audios y vídeos manipulados?

Para la mayoría de los usuarios es difícil no creer de manera intuitiva en lo que está viendo o escuchando. Sin embargo, desde que es posible manipular fotos, vídeos y audios con relativamente poco esfuerzo y experiencia, se recomienda estar atento.

Compartir
Compartir articulo
ARCHIVO - Si un vídeo resulta extraño en algún sentido, vale la pena indagar sobre su autenticidad. Foto: Christin Klose/dpa
ARCHIVO - Si un vídeo resulta extraño en algún sentido, vale la pena indagar sobre su autenticidad. Foto: Christin Klose/dpa

Para la mayoría de los usuarios es difícil no creer de manera intuitiva en lo que está viendo o escuchando. Sin embargo, desde que es posible manipular fotos, vídeos y audios con relativamente poco esfuerzo y experiencia, se recomienda estar atento.

Los así llamados "deepfakes" se crean con la ayuda de la inteligencia artificial (IA) y, cuando se miran o escuchan normalmente, apenas pueden distinguirse de los vídeos o de las grabaciones de voz reales, advierte la Oficina Federal de Seguridad en las Tecnologías de la Información (BSI) de Alemania, que ofrece una nueva página temática en la que explica la tecnología, los procedimientos, los peligros y cómo protegerse.

Las falsificaciones se denominan "deepfakes", porque los métodos utilizados para crearlas se basan en redes neuronales profundas.

¿Cómo protegerse de estos archivos manipulados? El mero hecho de conocer su existencia y las posibilidades de la IA lleva a dejar de confiar ciegamente en la autenticidad de cualquier vídeo o grabación de audio en sí. Siempre es importante cuestionar críticamente ciertas afirmaciones y su plausibilidad.

También puede haber indicios técnicos que permitan desenmascarar las falsificaciones. Según la BSI, puede tratarse de artefactos en las transiciones faciales, contornos borrosos, falta de expresiones faciales o una exposición inconsistente en los vídeos. Un sonido metálico o monótono, una pronunciación incorrecta o una forma de hablar artificial, así como ruidos o retrasos poco naturales, son errores típicos de las falsificaciones de voz.

Según la BSE, en el futuro también podría haber procedimientos criptográficos que vinculen claramente la fuente del material de vídeo o audio con una identidad y permitan de este modo evitar las falsificaciones. Estos incluyen también numerosos métodos para la detección automática de datos manipulados que son actualmente objeto de estudios por parte de la comunidad de científicos, puntualizan los expertos de la entidad. 

dpa