Estudio revela que más del 50% de los adolescentes en Estados Unidos usó IA para crear desnudos

La falta de controles eficaces y el anonimato favorecen la expansión de contenido sexualizado no consentido

Guardar
Ilustración de un adolescente preocupado frente a una laptop en una habitación oscura, con múltiples pantallas y móviles mostrando siluetas pixeladas de deepfakes.
Más de la mitad de los adolescentes en EE. UU. usa IA para crear desnudos: alarma por privacidad y riesgos digitales - (Imagen Ilustrativa Infobae)

La proliferación de herramientas de inteligencia artificial ha traído consigo desafíos éticos y sociales inéditos, particularmente entre los adolescentes. Un reciente estudio publicado en la revista científica PLOS One revela un dato alarmante: más de la mitad de los jóvenes de entre 13 y 17 años en Estados Unidos ha utilizado aplicaciones de IA para crear imágenes de desnudos, ya sea de sí mismos o de otras personas.

Este fenómeno, que se ha convertido en una práctica extendida, plantea serias preocupaciones sobre la privacidad, el consentimiento y la exposición a riesgos digitales en una generación hiperconectada.

La investigación, liderada por Chad Steel de la Universidad George Mason, constituye una evidencia a gran escala que mide el uso de tecnologías de nudificación con IA en menores estadounidenses.

(Imagen Ilustrativa Infobae)
Deepfakes con IA: el 55% de los adolescentes estadounidenses ha creado o recibido imágenes de desnudos - (Imagen Ilustrativa Infobae)

Cuál es el problema de la IA con los adolescentes

De acuerdo con el estudio, el 55,3% de los adolescentes encuestados admitió haber creado al menos una imagen de desnudos mediante IA, mientras que el 54,4% recibió imágenes de este tipo generadas digitalmente.

Lo más preocupante es que el 36,3% reportó que alguien creó una imagen de ellos sin su consentimiento, y el 33,2% indicó que esas imágenes fueron posteriormente compartidas sin permiso.

Además, los participantes masculinos registraron tasas más altas tanto en la creación como en la distribución de estas imágenes, aunque la afectación se observa en ambos géneros, como creadores y como víctimas. El fenómeno se agrava por la facilidad de acceso a estas herramientas, el bajo costo y la escasa regulación efectiva.

Cómo funcionan las apps de desnudos con IA

Las aplicaciones de “nudificación” utilizan IA para transformar una fotografía real en una versión falsa en la que la persona aparece sin ropa, lo que se conoce como deepfake. A diferencia de los generadores de imágenes a partir de texto, estas apps requieren una foto real como punto de partida, lo que implica de manera directa a una persona concreta como víctima.

(Imagen Ilustrativa Infobae)
IA y menores: la proliferación de imágenes de desnudos generadas digitalmente dispara la alarma social y legal - (Imagen Ilustrativa Infobae)

El uso de estas herramientas es más frecuente que el de los generadores tradicionales de imágenes ficticias, lo que confirma que el problema está vinculado a la manipulación de imágenes reales de conocidos y no solo a la creación de personajes falsos.

Casos recientes de celebridades, como Taylor Swift y Selena Gómez, han puesto el foco mediático en el impacto de estas tecnologías. Plataformas y aplicaciones como ClothOff y el chatbot Grok de xAI han sido señaladas por generar miles de imágenes sexualizadas cada día, lo que llevó a algunas empresas a restringir su funcionamiento e implementar nuevas políticas de protección.

Cuáles son los riesgos, impacto y desafíos legales

El estudio advierte que la producción y difusión de contenido explícito mediante IA no disminuye, a pesar de las restricciones y las políticas de las plataformas. La facilidad de acceso y el anonimato en el mercado gris digital dificultan la aplicación de controles efectivos. El impacto en las víctimas es severo: se vulnera la privacidad, se generan situaciones de acoso y extorsión, y en muchos casos la imagen es compartida masivamente sin posibilidad de freno inmediato.

Los investigadores recomiendan que las intervenciones educativas para prevenir estos problemas comiencen antes de los 13 años, dado que no se encontraron diferencias estadísticamente significativas entre los distintos grupos de edad analizados. También instan a los legisladores a revisar el marco legal vigente y a los desarrolladores a crear barreras técnicas que obstaculicen el uso indebido de estas tecnologías.

Plano medio de un adolescente sentado en unas escaleras grises, con la cabeza baja y abrazando una mochila clara. De fondo se ven casilleros verdes.
El fenómeno afecta a ambos géneros y desafía la capacidad de respuesta de padres, educadores y legisladores, que urgen reforzar la educación digital y actualizar las leyes para proteger la privacidad infantil - (Imagen Ilustrativa Infobae)

Qué hacer si eres víctima de un deepfake

La guía de VerificaRTVE, elaborada con expertos, sugiere los siguientes pasos:

  • Recopilar pruebas: Capturas de pantalla con fecha y hora, guardar URLs, descargar el contenido y documentar toda la información relevante.
  • Denunciar en la plataforma: Usar las herramientas de denuncia de suplantación o acoso en redes sociales y solicitar la retirada inmediata.
  • Denunciar ante autoridades: Acudir a fuerzas de seguridad y unidades de delitos telemáticos, presentando todas las pruebas.
  • Contactar con un abogado especializado: Para ejercer acciones legales y reclamar la retirada de contenido y posibles indemnizaciones.
  • Solicitar medidas cautelares: Pedir al juez la eliminación urgente del material mientras se tramita el caso.
  • Preservar la salud mental: Buscar apoyo profesional ante el impacto psicológico del ciberacoso.
  • Recurrir a recursos oficiales: Consultar organismos como INCIBE o la Agencia Española de Protección de Datos para orientación y apoyo.

La prevención y la respuesta rápida serán fundamentales para combatir un fenómeno que crece al ritmo de la tecnología y amenaza con desbordar los mecanismos actuales de protección.