
Sumar defiende que la "necesidad de regular" la Inteligencia Artificial (IA) es "imperante debido al daño potencial que un mal uso de la misma puede ocasionar en grupos que resultan especialmente vulnerables a sus repercusiones, como lo son los menores y las mujeres". Así lo pone de relieve el Grupo Plurinacional Sumar en el Congreso, en una pregunta parlamentaria registrada para su respuesta por escrito, tras el caso de los jóvenes menores de edad identificados por su presunta relación con la producción de falsos desnudos de chicas de Almendralejo (Badajoz), también menores, a partir de Inteligencia Artificial. En la iniciativa, a la que ha tenido acceso Europa Press, la diputada de Más Madrid Teslem Andala Ubbi, conocida como Tesh Sidi, argumenta que las imágenes falsas de las menores de Almendralejo "son tan realistas que algunas personas las han confundido con las niñas reales, lo que ha causado gran consternación y preocupación en sus familias". En este contexto, la parlamentaria de Sumar explica que Undress AI es una forma de 'deepfake' que utiliza Inteligencia Artificial para crear y modificar imágenes, eliminando la ropa de las personas y generando apariencias de piel realistas. "Esta tecnología tiene diversas aplicaciones en entretenimiento (educación, arte y uso personal) pero, también, plantea preocupaciones en términos de privacidad, consentimiento y ética", sostiene. Asimismo, Tesh Sidi detalla que 'Undress AI' se basa en Redes Generativas Antagónicas (GAN), que constan de dos componentes: un generador, que crea imágenes falsas de personas desnudas; y un discriminador, que distingue entre imágenes reales y falsas. Con ello, el sistema se entrena en una gran base de datos de imágenes de desnudos para mejorar la calidad y la precisión de las imágenes generadas a lo largo del tiempo, añade. MOMENTO CLAVE "Nos encontramos en un momento clave, ya que las rápidas mejoras que se esperan en estas herramientas dificultarán, cada vez más, distinguir entre imágenes manipuladas y reales. A esto se suma la proliferación continua de plataformas que facilitan la transmisión de información pero que ponen grandes imposibilidades a la hora de retirar contenido como, en concreto, las imágenes a las que nos referimos", manifiesta. En este sentido, la parlamentaria agrega que es "importante", además, tener en cuenta que los niños, jóvenes y las mujeres son "particularmente vulnerables a este tipo de abuso" y que los expertos sugieren "una solución de dos vías que involucra tecnología y regulación". "Es crucial desarrollar clasificadores para identificar el contenido genuino y falso, junto con mandatos gubernamentales para etiquetar, de manera clara, el contenido generado por la inteligencia artificial", subraya. A su juicio, es necesario que la regulación llegue "con más celeridad desde un nivel más alto, como puede ser el ámbito estatal y/o el europeo". "La aparición de herramientas como 'UndressAI' resalta la urgencia de regular las tecnologías de inteligencia artificial para proteger a las personas del uso indebido y la manipulación", insiste. Por todo ello, Sumar pregunta al Gobierno qué medidas tomará la Agencia Nacional de Supervisión de la Inteligencia Artificial para abordar el problema de los 'deepfakes' y proteger la seguridad, el honor y la privacidad de la ciudadanía en el ámbito de la inteligencia artificial. En paralelo, la formación política quiere saber si se van a impulsar programas integrales en el ámbito educativo para concienciar a los más jóvenes sobre el uso responsable de la Inteligencia Artificial y "por qué no se ha promocionado o invertido más dinero en promocionar mejor la herramienta Canal Prioritario" de la Agencia Española de Protección de Datos (AEPD), para que la ciudadanía conozca este servicio que ya se oferta. CANAL PRIORITARIO DE LA AEPD La Agencia Española de Protección de Datos dispone de un Canal Prioritario para comunicar la difusión ilícita de contenido sensible y solicitar su retirada. Este sistema tiene como objetivo dar una respuesta rápida en situaciones excepcionalmente delicadas, como aquellas que incluyen la difusión de contenido sexual o violento. Durante el año 2022 se duplicó la cifra de reclamaciones gestionadas a través del Canal Prioritario --para solicitar la retirada urgente de contenido sexual o violento publicado en internet sin el permiso de las personas que aparecen-- que tuvieron una tramitación urgente. Se realizaron 51 intervenciones en 2022, logrando retirar los contenidos sensibles con inmediatez en más de un 90% de los casos.
Últimas Noticias
Condenan a 22 años de prisión a uno de los acusados de participar en el asesinato del senador Miguel Uribe

Dos soldados muertos y ocho heridos en una operación del Ejército colombiano contra el ELN
El enfrentamiento en Arauquita involucró a miembros de la Comisión Camilo Cienfuegos del ELN, quienes abrieron fuego, causando bajas entre las filas militares, según autoridades, y poniendo en alerta a la población local ante posibles nuevos ataques

Al menos diez muertos y cerca de 60 heridos en un incendio en una fábrica en Corea del Sur
Las autoridades de Daejeon confirmaron la existencia de decenas de heridos y personas desaparecidas tras un siniestro en una planta automotriz, mientras equipos especializados buscan sobrevivientes entre los escombros pese a condiciones extremadamente riesgosas

Un tribunal federal declara inconstitucionales las restricciones de acceso a la prensa impuestas por el Pentágono
El fallo sostiene que las limitaciones impuestas violan la Primera Enmienda y subraya la necesidad de que periodistas independientes obtengan información sin restricciones, especialmente en temas de seguridad nacional, según el dictamen del tribunal de Columbia

Milicias proiraníes de Irak reivindican un ataque contra una instalación diplomática de EEUU en el país
Una base utilizada por personal estadounidense junto al aeropuerto de Bagdad fue alcanzada por drones este viernes, informó una fuente de seguridad, mientras grupos armados vinculados a Teherán advierten que intensificarán acciones y piden evitar instalaciones estadounidenses
