El Reino Unido ha iniciado una colaboración con Microsoft, instituciones académicas y especialistas para desarrollar un sistema destinado a detectar material deepfake en línea. Esta iniciativa forma parte de una estrategia gubernamental más amplia para establecer estándares en la lucha contra los contenidos nocivos y engañosos producidos mediante inteligencia artificial.
La preocupación por el avance y la sofisticación de los deepfakes ha crecido notablemente con la proliferación de herramientas como ChatGPT y otros chatbots de IA generativa, que han elevado tanto la escala como el realismo de este tipo de manipulaciones.
Desarrollo de un sistema para identificar deepfakes en Reino Unido
El gobierno británico ha dado a conocer que trabaja en un marco de evaluación diseñado para la detección de deepfakes. Este marco pretende fijar criterios uniformes para analizar la eficacia de herramientas y tecnologías capaces de identificar contenidos manipulados.
La acción responde a la urgencia de combatir los riesgos asociados a la difusión masiva de deepfakes, especialmente aquellos que afectan la seguridad pública y la integridad individual.
La ministra de tecnología, Liz Kendall, declaró: “Los deepfakes están siendo utilizados como armas por criminales para estafar al público, explotar a mujeres y niñas, y socavar la confianza en lo que vemos y escuchamos”. Esta afirmación subraya el desafío que representan los deepfakes en distintos ámbitos, desde la protección de datos personales hasta la confianza en la información digital.
La reciente penalización en el Reino Unido de la creación de imágenes íntimas sin consentimiento evidencia la atención prioritaria que el gobierno otorga a este fenómeno. La nueva colaboración intersectorial busca no solo desarrollar tecnología, sino también sentar las bases para un entorno legal y normativo más riguroso.
Estándares y pruebas para combatir los deepfakes en internet
El marco propuesto por el gobierno británico tiene como uno de sus objetivos principales la evaluación del potencial tecnológico para analizar, comprender y detectar contenidos deepfake perjudiciales. Esta evaluación se realizará mediante pruebas específicas que enfrentarán las capacidades de detección a amenazas concretas como el abuso sexual, el fraude y la suplantación de identidad.
Las autoridades sostienen que esta herramienta permitirá identificar brechas en los sistemas actuales de detección y proporcionará directrices claras a las industrias tecnológicas sobre las expectativas regulatorias.
La intención es que este marco funcione como referencia para la adopción de prácticas más seguras y responsables en el desarrollo y aplicación de tecnologías de inteligencia artificial generativa.
Según cifras oficiales, la magnitud del problema crece de forma acelerada: se estima que en 2025 se compartieron 8 millones de deepfakes, frente a los 500.000 detectados en 2023. Este salto cuantitativo reafirma la necesidad de respuestas coordinadas y efectivas.
Regulación ante los riesgos de la IA
La actuación de gobiernos y organismos reguladores ha cobrado impulso recientemente, especialmente después de casos notorios como la generación de imágenes sexualizadas sin consentimiento por parte del chatbot Grok, desarrollado por Elon Musk. Este incidente incluyó la creación de imágenes de menores de edad y provocó una reacción inmediata de autoridades y reguladores internacionales.
En el Reino Unido, el regulador de las comunicaciones y la autoridad de privacidad han abierto investigaciones paralelas sobre el caso Grok, mostrando el interés en abordar tanto la dimensión tecnológica como la de protección de datos y derechos individuales.
El fenómeno deepfake no solo representa un reto técnico, sino también social y legal. Las imágenes y videos manipulados afectan la reputación de las personas, facilitan fraudes y constituyen una amenaza para la seguridad, especialmente de mujeres, niñas y menores de edad.
La colaboración entre el sector público, la industria tecnológica y el ámbito académico busca crear soluciones integrales que permitan identificar y frenar la propagación de estos materiales.