
El Reino Unido ha iniciado una colaboración con Microsoft, instituciones académicas y especialistas para desarrollar un sistema destinado a detectar material deepfake en línea. Esta iniciativa forma parte de una estrategia gubernamental más amplia para establecer estándares en la lucha contra los contenidos nocivos y engañosos producidos mediante inteligencia artificial.
La preocupación por el avance y la sofisticación de los deepfakes ha crecido notablemente con la proliferación de herramientas como ChatGPT y otros chatbots de IA generativa, que han elevado tanto la escala como el realismo de este tipo de manipulaciones.
PUBLICIDAD
Desarrollo de un sistema para identificar deepfakes en Reino Unido
El gobierno británico ha dado a conocer que trabaja en un marco de evaluación diseñado para la detección de deepfakes. Este marco pretende fijar criterios uniformes para analizar la eficacia de herramientas y tecnologías capaces de identificar contenidos manipulados.
La acción responde a la urgencia de combatir los riesgos asociados a la difusión masiva de deepfakes, especialmente aquellos que afectan la seguridad pública y la integridad individual.
PUBLICIDAD
La ministra de tecnología, Liz Kendall, declaró: “Los deepfakes están siendo utilizados como armas por criminales para estafar al público, explotar a mujeres y niñas, y socavar la confianza en lo que vemos y escuchamos”. Esta afirmación subraya el desafío que representan los deepfakes en distintos ámbitos, desde la protección de datos personales hasta la confianza en la información digital.
La reciente penalización en el Reino Unido de la creación de imágenes íntimas sin consentimiento evidencia la atención prioritaria que el gobierno otorga a este fenómeno. La nueva colaboración intersectorial busca no solo desarrollar tecnología, sino también sentar las bases para un entorno legal y normativo más riguroso.
PUBLICIDAD

Estándares y pruebas para combatir los deepfakes en internet
El marco propuesto por el gobierno británico tiene como uno de sus objetivos principales la evaluación del potencial tecnológico para analizar, comprender y detectar contenidos deepfake perjudiciales. Esta evaluación se realizará mediante pruebas específicas que enfrentarán las capacidades de detección a amenazas concretas como el abuso sexual, el fraude y la suplantación de identidad.
Las autoridades sostienen que esta herramienta permitirá identificar brechas en los sistemas actuales de detección y proporcionará directrices claras a las industrias tecnológicas sobre las expectativas regulatorias.
PUBLICIDAD
La intención es que este marco funcione como referencia para la adopción de prácticas más seguras y responsables en el desarrollo y aplicación de tecnologías de inteligencia artificial generativa.

Según cifras oficiales, la magnitud del problema crece de forma acelerada: se estima que en 2025 se compartieron 8 millones de deepfakes, frente a los 500.000 detectados en 2023. Este salto cuantitativo reafirma la necesidad de respuestas coordinadas y efectivas.
PUBLICIDAD
Regulación ante los riesgos de la IA
La actuación de gobiernos y organismos reguladores ha cobrado impulso recientemente, especialmente después de casos notorios como la generación de imágenes sexualizadas sin consentimiento por parte del chatbot Grok, desarrollado por Elon Musk. Este incidente incluyó la creación de imágenes de menores de edad y provocó una reacción inmediata de autoridades y reguladores internacionales.
En el Reino Unido, el regulador de las comunicaciones y la autoridad de privacidad han abierto investigaciones paralelas sobre el caso Grok, mostrando el interés en abordar tanto la dimensión tecnológica como la de protección de datos y derechos individuales.
PUBLICIDAD

El fenómeno deepfake no solo representa un reto técnico, sino también social y legal. Las imágenes y videos manipulados afectan la reputación de las personas, facilitan fraudes y constituyen una amenaza para la seguridad, especialmente de mujeres, niñas y menores de edad.
La colaboración entre el sector público, la industria tecnológica y el ámbito académico busca crear soluciones integrales que permitan identificar y frenar la propagación de estos materiales.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Usar YouTube en Android Auto ya es posible gracias a esta actualización de Google
Por motivos de seguridad, la reproducción de videos solo está habilitada cuando el vehículo está estacionado

Hay una guerra de narrativas sobre la IA y el empleo: ninguna de las dos partes es neutral
Andrew Ng promete que la IA va a crear más empleo del que destruye; Dario Amodei avisa de un colapso del trabajo blanco. Las dos predicciones se hacen mientras OpenAI está valuada en USD 852.000 millones y Anthropic apunta a USD 900.000 millones, y 81.747 empleados de tecnología fueron despedidos en el primer trimestre

América Latina, la región con más ciberataques en el mundo: más de 3 mil semanales
Un informe revela un aumento interanual del 20% en los ciberataques contra empresas latinoamericanas

Google expulsa de su tienda oficial a una popular aplicación tras descubrir que exponía los datos financieros de sus usuarios
Más de 7,3 millones de usuarios descargaron herramientas que simulaban acceder al historial de llamadas y conversaciones de terceros

Starlink limita la velocidad tras un uso intensivo: así funcionan las nuevas restricciones en sus tarifas “ilimitadas”
El servicio satelital de Elon Musk aplica reducción de velocidad tras un uso intensivo para evitar la congestión de la red, priorizando a los usuarios que no superan el umbral de consumo



