
El Reino Unido ha iniciado una colaboración con Microsoft, instituciones académicas y especialistas para desarrollar un sistema destinado a detectar material deepfake en línea. Esta iniciativa forma parte de una estrategia gubernamental más amplia para establecer estándares en la lucha contra los contenidos nocivos y engañosos producidos mediante inteligencia artificial.
La preocupación por el avance y la sofisticación de los deepfakes ha crecido notablemente con la proliferación de herramientas como ChatGPT y otros chatbots de IA generativa, que han elevado tanto la escala como el realismo de este tipo de manipulaciones.
Desarrollo de un sistema para identificar deepfakes en Reino Unido
El gobierno británico ha dado a conocer que trabaja en un marco de evaluación diseñado para la detección de deepfakes. Este marco pretende fijar criterios uniformes para analizar la eficacia de herramientas y tecnologías capaces de identificar contenidos manipulados.
La acción responde a la urgencia de combatir los riesgos asociados a la difusión masiva de deepfakes, especialmente aquellos que afectan la seguridad pública y la integridad individual.
La ministra de tecnología, Liz Kendall, declaró: “Los deepfakes están siendo utilizados como armas por criminales para estafar al público, explotar a mujeres y niñas, y socavar la confianza en lo que vemos y escuchamos”. Esta afirmación subraya el desafío que representan los deepfakes en distintos ámbitos, desde la protección de datos personales hasta la confianza en la información digital.
La reciente penalización en el Reino Unido de la creación de imágenes íntimas sin consentimiento evidencia la atención prioritaria que el gobierno otorga a este fenómeno. La nueva colaboración intersectorial busca no solo desarrollar tecnología, sino también sentar las bases para un entorno legal y normativo más riguroso.

Estándares y pruebas para combatir los deepfakes en internet
El marco propuesto por el gobierno británico tiene como uno de sus objetivos principales la evaluación del potencial tecnológico para analizar, comprender y detectar contenidos deepfake perjudiciales. Esta evaluación se realizará mediante pruebas específicas que enfrentarán las capacidades de detección a amenazas concretas como el abuso sexual, el fraude y la suplantación de identidad.
Las autoridades sostienen que esta herramienta permitirá identificar brechas en los sistemas actuales de detección y proporcionará directrices claras a las industrias tecnológicas sobre las expectativas regulatorias.
La intención es que este marco funcione como referencia para la adopción de prácticas más seguras y responsables en el desarrollo y aplicación de tecnologías de inteligencia artificial generativa.

Según cifras oficiales, la magnitud del problema crece de forma acelerada: se estima que en 2025 se compartieron 8 millones de deepfakes, frente a los 500.000 detectados en 2023. Este salto cuantitativo reafirma la necesidad de respuestas coordinadas y efectivas.
Regulación ante los riesgos de la IA
La actuación de gobiernos y organismos reguladores ha cobrado impulso recientemente, especialmente después de casos notorios como la generación de imágenes sexualizadas sin consentimiento por parte del chatbot Grok, desarrollado por Elon Musk. Este incidente incluyó la creación de imágenes de menores de edad y provocó una reacción inmediata de autoridades y reguladores internacionales.
En el Reino Unido, el regulador de las comunicaciones y la autoridad de privacidad han abierto investigaciones paralelas sobre el caso Grok, mostrando el interés en abordar tanto la dimensión tecnológica como la de protección de datos y derechos individuales.

El fenómeno deepfake no solo representa un reto técnico, sino también social y legal. Las imágenes y videos manipulados afectan la reputación de las personas, facilitan fraudes y constituyen una amenaza para la seguridad, especialmente de mujeres, niñas y menores de edad.
La colaboración entre el sector público, la industria tecnológica y el ámbito académico busca crear soluciones integrales que permitan identificar y frenar la propagación de estos materiales.
Últimas Noticias
Cómo son las ‘escuelas’ donde los humanos enseñan a robots tareas domésticas y otras habilidades
Este aprendizaje se logra gracias a la interacción hombre-máquina, lo que genera modelos de IA más eficientes y listos para el uso en servicios e industrias

El fin de la muerte: logran reanimar neuronas en un cerebro congelado y desafían leyes de la vida
Los investigadores confirmaron que el tejido reanimado conservó la capacidad de transmitir señales entre neuronas

Qué pasa con el fraude del streaming artificial en la industria musical digital
La eliminación masiva de reproducciones falsas ha revelado cuán distorsionadas estaban las estadísticas de popularidad, obligando a la industria a replantear la validez de sus métricas y modelos de negocio digitales

La montaña rusa de las criptomonedas: así cotizan este día
El bitcoin, una de las principales monedas virtuales, tuvo un cambio de 2,75% en las últimas 24 horas

Steve Jobs y la regla 10-80-10: el método que revolucionó el liderazgo y la innovación en equipos tecnológicos
El enfoque impulsado por el fundador de Apple desafió los modelos tradicionales y aún hoy inspira a quienes enfrentan el reto de coordinar talento en empresas tecnológicas



