Los 'deepfakes' ponen a prueba las capacidades visuales: soluciones para verificar la autenticidad a nivel de cámara

La proliferación de montajes audiovisuales generados por inteligencia artificial obliga a incorporar sistemas de verificación innovadores, como el vídeo firmado, que garantizan evidencia irrefutable y transparencia para autoridades, empresas y organismos judiciales ante las crecientes amenazas digitales

Guardar
Imagen PXFOMFAMQ5DIFFKPTLCCE3MRZY

El incremento de archivos 'deepfake' ha experimentado un crecimiento notorio: según datos recopilados por DeepStrike y publicados por Europa Press, solo en 2025 la cifra pasó de 500.000 a 8 millones de archivos, mientras que la capacidad de los humanos para distinguir estos montajes alcanza únicamente el 24,5 por ciento de precisión. La noticia principal gira en torno a la integración de sistemas de verificación innovadores, como el vídeo firmado, que proponen soluciones para certificar la autenticidad del material audiovisual desde el instante en que se captura, con aplicaciones en ámbitos legales, empresariales, judiciales y de seguridad ante el aumento de riesgos digitales y la sofisticación de las manipulaciones mediante inteligencia artificial.

De acuerdo con Europa Press, herramientas como el sistema de vídeo firmado desarrollado por Axis Communications abordan la dificultad creciente de identificar cuándo un vídeo corresponde a un contenido real o manipulaciones generadas mediante inteligencia artificial. Esta situación ha cobrado especial relevancia en sectores donde la autenticidad de las pruebas audiovisuales resulta esencial, tales como corporaciones, fuerzas y cuerpos de seguridad e instituciones judiciales. El informe ‘Seguridad en la edad de la IA’, elaborado por Telefónica y citado por Europa Press, confirma que los vídeos manipulados con IA han aumentado un 550 por ciento entre 2019 y 2023, lo cual evidencia una tendencia al alza y un reto significativo en la verificación del contenido digital.

Según consignó Europa Press, los 'deepfakes' se basan en técnicas de IA para crear vídeos en los que parece que una persona real dice o hace algo que jamás sucedió. Habitualmente, estos recursos se destinan a fines maliciosos, como el fraude, la suplantación o la desinformación, dificultando considerablemente la tarea de discernir entre lo auténtico y lo fabricado. Aunque las capacidades de la inteligencia artificial para generar imágenes y vídeos realistas tienen usos legítimos en sectores como el entretenimiento y los videojuegos, también han provocado que los usuarios enfrenten mayores incertidumbres sobre la veracidad de los contenidos.

En respuesta a estos desafíos, Axis Communications ha desarrollado una tecnología basada en la autenticación directa desde la cámara que captura el vídeo. El sistema utiliza la plataforma de ciberseguridad Axis Edge Vault, que agrega una firma criptográfica específica durante la grabación. Según explicó Alberto Alonso, responsable del Programa de Ingeniería, Ciberseguridad y Cumplimiento en Axis Communications para Iberia, esta solución permite que la evidencia de autenticidad quede garantizada al no depender de verificaciones posteriores en el procesamiento del material audiovisual. El medio Europa Press detalla que la implementación de la firma directamente en la cámara impide que el vídeo pueda editarse sin que la manipulación quede registrada, generando así una prueba confiable desde el origen del contenido.

Esta solución se ofrece bajo un modelo de software de código abierto, lo que implica que cualquier organismo, desde fuerzas de seguridad hasta entidades judiciales y fabricantes de cámaras, puede adoptar la herramienta y examinar el código empleado para validar la autenticidad de los vídeos. Europa Press destacó que este carácter abierto elimina la dependencia de sistemas propietarios, aumentando la transparencia y permitiendo auditorías independientes, aspecto determinante en entornos legales y forenses.

El sistema de vídeo firmado de Axis Communications incorpora los requisitos del marco estándar ONVIF (Open Network Video Interface Forum), garantizando que el material queda protegido con una clave digital propia de cada dispositivo de vigilancia. Este estándar es compatible con las iniciativas impulsadas por la Coalition for Content Provenance and Authenticity (C2PA), destinadas a robustecer los procesos para probar la integridad de los archivos audiovisuales, tal como remarca Europa Press. Cumplir con estos estándares proporciona una solución válida para procedimientos judiciales, investigaciones policiales y la gestión de incidentes críticos en el ámbito corporativo, donde la capacidad de rastrear el origen del vídeo es una demanda prioritaria.

El contexto legislativo europeo también motiva la adopción de estas tecnologías. Europa Press detalla que la normativa AI Act y la ley de gobernanza de IA de la Unión Europea establecen la obligatoriedad de etiquetar los contenidos generados por inteligencia artificial. A pesar de la existencia de estos marcos legales, desde varios sectores se advierte la urgencia de incorporar mecanismos complementarios que puedan verificar de modo fiable que un material audiovisual no ha sido manipulado desde su creación hasta su almacenamiento o difusión, y este tipo de tecnología contribuye precisamente a ese objetivo.

Junto al vídeo firmado, diversas compañías tecnológicas como Meta y Google han implementado herramientas orientadas a la identificación de contenido sintético, como marcas de agua invisibles o sistemas como SynthID. Mientras esos métodos se enfocan en revelar la creación artificial de los archivos, la propuesta de Axis Communications se centra en certificar la autenticidad de los vídeos que recogen hechos reales. Según expresó Alonso y publicó Europa Press, “creamos un sello de autenticidad para los acontecimientos del mundo real”, lo que resulta fundamental en investigaciones legales o forenses para preservar la confianza en las pruebas digitales presentadas ante tribunales o autoridades.

El surgimiento de los 'deepfakes' y la proliferación de herramientas de IA para manipular imágenes, audios y vídeos marcan un escenario de constante desafío para la verificación de la información. Europa Press indica que la combinación de marcos normativos, tecnologías abiertas y colaboraciones estandarizadas representa una respuesta integral que pretende restaurar la confianza en el contenido audiovisual y ofrecer garantías tanto a la ciudadanía como a las instituciones que dependen de pruebas digitales fehacientes.