Europa prohibirá las herramientas de IA que generen imágenes sexuales y pornografía infantil

Las compañías tendrán hasta diciembre para aplicar la nueva normativa

Guardar
Google icon
Imagen de archivo: Pantalla de un teléfono con una imagen fotorrealista generada por el chatbot de inteligencia artificial Grok, que representa a un periodista de Reuters. (REUTERS/Mike Blake/Foto de archivo)
Imagen de archivo: Pantalla de un teléfono con una imagen fotorrealista generada por el chatbot de inteligencia artificial Grok, que representa a un periodista de Reuters. (REUTERS/Mike Blake/Foto de archivo)

El Parlamento Europeo y los Estados miembros han acordado este jueves prohibir todas las aplicaciones de inteligencia artificial (IA) que permitan crear imágenes de desnudos sin consentimiento, así como la generación de pornografía infantil. El acuerdo entre los legisladores comunitarios, alcanzado esta madrugada, simplifica la recién adoptada Ley de IA con el objetivo de poner coto a la creación de deekfakes sexuales.

El veto a las llamadas “aplicaciones nudistas” llega después de que Grok, la herramienta de IA propia de Twitter (ahora X) permitiera a los usuarios generar tres millones de imágenes sexualizadas, con más de 23.000 fotografías de menores. “Nuestras empresas y ciudadanos quieren dos cosas de las reglas de inteligencia artificial. Quieren poder innovar y sentirse seguros. El acuerdo de hoy hace ambas cosas”, ha expresado en redes sociales la vicepresidenta de la Comisión Europea encargada de la política digital, Henna Virkkunen.

PUBLICIDAD

Así, la nueva normativa se aplicará a los sistemas de IA que creen material audiovisual de abuso sexual infantil o que representen las partes íntimas de una persona identificable, o en las que se muestre participando en actividades sexuales explícitas, siempre que la persona no haya dado su consentimiento. De este modo, ha valorado el correlator de la comisión de Libertades Civiles, Justicia y Asuntos de Interior, Michael McNamara; Europa se dota de “las herramientas necesarias para actuar si los proveedores no abordan los sistemas de IA que comprometen los derechos fundamentales o la dignidad humana”.

Las compañías tendrán hasta el 2 de diciembre para aplicar estas limitaciones. Para esa fecha, los servicios de IA deberán contar con medidas de seguridad que les impidan generar este tipo de contenidos.

PUBLICIDAD

Los 27 retrasan las entrada en vigor de las regulaciones de la IA

Fotografía de archivo de la vicepresidenta ejecutiva de la Comisión Europea para la Soberanía Tecnológica, la Seguridad y la Democracia, Henna Virkkunen.
Fotografía de archivo de la vicepresidenta ejecutiva de la Comisión Europea para la Soberanía Tecnológica, la Seguridad y la Democracia, Henna Virkkunen. (FE/Quique García)

La revisión de la Ley de la IA también ha implicado un acuerdo para retrasar la entrada en vigor de algunas de sus regulaciones, “para garantizar que se establezcan las normas y medidas de apoyo necesarias para clarificar la aplicación de las reglas“, ha expresado el Parlamento Europeo en un comunicado.

De este modo, se posponen hasta diciembre de 2027 todas las obligaciones europeas a los sistemas de alto riesgo, incluidos aquellos que implican biometría y los utilizados en infraestructuras críticas, educación, empleo, aplicación de la ley y gestión de fronteras. En un principio, la Ley de la IA preveía su entrada en vigor este mismo año, pero Bruselas todavía no ha diseñado los requisitos técnicos que deben cumplir estos sistemas para considerarse seguros.

Igualmente, se retrasa hasta el 2 de diciembre de 2026 la implantación de la marca de agua para todo el contenido generado por IA.

La UE también ha eximido a ciertos sectores industriales de tener que cumplir los requisitos de transparencia y notificación de incidentes. Productos como dispositivos médicos, juguetes o ascensores podrán sortear estas obligaciones. Además, tampoco tendrán que demostrar que sus sistemas son seguros si otras normas sectoriales ya les imponen requisitos similares. La reforma abre la ley a la posibilidad de procesar datos personales cuando sea estrictamente necesario para detectar y corregir sesgos, con las salvaguardas adecuadas, tanto en sistemas de IA de alto riesgo como en sistemas de IA de bajo riesgo.

<br>

Google icon

PUBLICIDAD

PUBLICIDAD