
Un informe del Stanford Internet Observatory ha revelado la presencia de miles de imágenes de abuso sexual infantil en el conocido conjunto de datos LAION-5B, empleado para entrenar generadores de imágenes de IA como Stable Diffusion de Stability AI.
Este descubrimiento sugiere que las herramientas de IA podrían generar contenidos dañinos y realza la preocupación sobre la seguridad de dichas tecnologías. La entidad LAION, que administra el conjunto de datos, ya ha respondido retirando temporalmente los conjuntos de datos involucrados para una revisión exhaustiva.
PUBLICIDAD
Los investigadores del observatorio, en colaboración con el Centro Canadiense de Protección Infantil, inspeccionaron el índice de LAION, que cuenta con aproximadamente 5.8 mil millones de imágenes, y encontraron más de 3,200 imágenes sospechosas de contener abuso sexual infantil. Aproximadamente 1,000 de estas han sido verificadas externamente.
Esto apunta a una debilidad significativa en el proceso de desarrollo rápido y competitivo de proyectos de IA generativa, sin la atención meticulosa adecuada para garantizar la exclusión de este tipo de contenido dañino.
PUBLICIDAD
El problema se extiende a la transformación de fotografías de adolescentes en redes sociales en imágenes desnudas y la generación de representaciones explícitas de niños falsos.
Con el desafío de erradicar este contenido inapropiado, se han hecho llamados para que se eliminen o limpien los modelos de IA entrenados con los datos de LAION-5B y se tomen medidas más drásticas para evitar la distribución de versiones problemáticas de Stable Diffusion.
PUBLICIDAD
Además, entidades como Hugging Face y CivitAI están bajo el escrutinio para implementar mejores prácticas y controles de seguridad.

Stable Diffusion, creado por Stability AI, es una de las herramientas que ha utilizado LAION-5B en su entrenamiento, lo que ha causado preocupación sobre el potencial mal uso de sus modelos. La compañía ha indicado que solo alberga versiones filtradas de Stable Diffusion y que ha tomado medidas proactivas para mitigar el riesgo de mal uso.
PUBLICIDAD
En respuesta al informe, se destacan los esfuerzos por mejorar los filtros para detectar y eliminar contenido ilegal antes de su distribución. Sin embargo, se reconoce que podría haberse hecho un mejor trabajo si se hubiera consultado con expertos en seguridad infantil desde etapas tempranas del desarrollo de los modelos.
OpenAI, desarrollador de DALL-E y ChatGPT, ha declarado que no utiliza LAION y ha ajustado sus modelos para rechazar solicitudes que involucren contenidos sexuales con menores. Por su parte, Google decidió no hacer público su modelo Imagen basado en datos de LAION tras hallar contenido inapropiado, incluyendo imágenes pornográficas y estereotipos sociales dañinos.
PUBLICIDAD
El uso de imágenes de niños, incluso en contextos inocuos, sin el consentimiento de los familiares, es cuestionado en el informe de Stanford y las autoridades reguladoras de EE. UU. han instado al Congreso a crear una comisión que investigue el impacto de la IA en la explotación infantil y prohíba la creación de CSAM (Child Sexual Abuse Material) generado por IA
El descubrimiento de material de abuso infantil en bases de datos utilizadas para entrenar modelos de inteligencia artificial plantea serias preocupaciones sobre la ética y la seguridad en el desarrollo tecnológico.
PUBLICIDAD
Este informe subraya la necesidad urgente de establecer protocolos más estrictos y colaboración entre desarrolladores, expertos en seguridad infantil y autoridades para prevenir la proliferación de este contenido dañino y garantizar el uso responsable de la IA.
(Con información de The Associated Press)
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Xbox cambia las reglas del juego: Asha Sharma anticipa una transformación que afecta a Series X|S
La CEO de Xbox instruyó a los equipos de ingeniería para lanzar actualizaciones de consola cada dos semanas hasta finales de año

Por qué el mayor peligro de la computación cuántica es tardar demasiado en protegernos
Para Elena Yndurain, la irrupción de la tecnología cuántica desmantela el principio que ha protegido durante décadas información financiera, sanitaria e industrial

Activa en WhatsApp el modo fantasma o invisible en estos simples pasos
El primer bloque de configuraciones se encuentra en Ajustes, dentro de la sección Privacidad. Desde ahí se pueden desactivar funciones

¿Tu Smart TV está en la lista? Netflix dejará de funcionar en estos televisores desde el 15 de mayo de 2026
El problema afecta a los modelos anteriores a 2014 o 2015, que ya no pueden acceder a la app ni recibir nuevas actualizaciones

El ajuste que los propietarios de Tesla con Intel necesitan hacer para mejorar la visualización de su coche
El truco resuelve una de las diferencias más notorias entre los sistemas Intel y AMD



