
La proliferación de herramientas de inteligencia artificial ha traído consigo desafíos éticos y sociales inéditos, particularmente entre los adolescentes. Un reciente estudio publicado en la revista científica PLOS One revela un dato alarmante: más de la mitad de los jóvenes de entre 13 y 17 años en Estados Unidos ha utilizado aplicaciones de IA para crear imágenes de desnudos, ya sea de sí mismos o de otras personas.
Este fenómeno, que se ha convertido en una práctica extendida, plantea serias preocupaciones sobre la privacidad, el consentimiento y la exposición a riesgos digitales en una generación hiperconectada.
La investigación, liderada por Chad Steel de la Universidad George Mason, constituye una evidencia a gran escala que mide el uso de tecnologías de nudificación con IA en menores estadounidenses.

Cuál es el problema de la IA con los adolescentes
De acuerdo con el estudio, el 55,3% de los adolescentes encuestados admitió haber creado al menos una imagen de desnudos mediante IA, mientras que el 54,4% recibió imágenes de este tipo generadas digitalmente.
Lo más preocupante es que el 36,3% reportó que alguien creó una imagen de ellos sin su consentimiento, y el 33,2% indicó que esas imágenes fueron posteriormente compartidas sin permiso.
Además, los participantes masculinos registraron tasas más altas tanto en la creación como en la distribución de estas imágenes, aunque la afectación se observa en ambos géneros, como creadores y como víctimas. El fenómeno se agrava por la facilidad de acceso a estas herramientas, el bajo costo y la escasa regulación efectiva.
Cómo funcionan las apps de desnudos con IA
Las aplicaciones de “nudificación” utilizan IA para transformar una fotografía real en una versión falsa en la que la persona aparece sin ropa, lo que se conoce como deepfake. A diferencia de los generadores de imágenes a partir de texto, estas apps requieren una foto real como punto de partida, lo que implica de manera directa a una persona concreta como víctima.

El uso de estas herramientas es más frecuente que el de los generadores tradicionales de imágenes ficticias, lo que confirma que el problema está vinculado a la manipulación de imágenes reales de conocidos y no solo a la creación de personajes falsos.
Casos recientes de celebridades, como Taylor Swift y Selena Gómez, han puesto el foco mediático en el impacto de estas tecnologías. Plataformas y aplicaciones como ClothOff y el chatbot Grok de xAI han sido señaladas por generar miles de imágenes sexualizadas cada día, lo que llevó a algunas empresas a restringir su funcionamiento e implementar nuevas políticas de protección.
Cuáles son los riesgos, impacto y desafíos legales
El estudio advierte que la producción y difusión de contenido explícito mediante IA no disminuye, a pesar de las restricciones y las políticas de las plataformas. La facilidad de acceso y el anonimato en el mercado gris digital dificultan la aplicación de controles efectivos. El impacto en las víctimas es severo: se vulnera la privacidad, se generan situaciones de acoso y extorsión, y en muchos casos la imagen es compartida masivamente sin posibilidad de freno inmediato.
Los investigadores recomiendan que las intervenciones educativas para prevenir estos problemas comiencen antes de los 13 años, dado que no se encontraron diferencias estadísticamente significativas entre los distintos grupos de edad analizados. También instan a los legisladores a revisar el marco legal vigente y a los desarrolladores a crear barreras técnicas que obstaculicen el uso indebido de estas tecnologías.

Qué hacer si eres víctima de un deepfake
La guía de VerificaRTVE, elaborada con expertos, sugiere los siguientes pasos:
- Recopilar pruebas: Capturas de pantalla con fecha y hora, guardar URLs, descargar el contenido y documentar toda la información relevante.
- Denunciar en la plataforma: Usar las herramientas de denuncia de suplantación o acoso en redes sociales y solicitar la retirada inmediata.
- Denunciar ante autoridades: Acudir a fuerzas de seguridad y unidades de delitos telemáticos, presentando todas las pruebas.
- Contactar con un abogado especializado: Para ejercer acciones legales y reclamar la retirada de contenido y posibles indemnizaciones.
- Solicitar medidas cautelares: Pedir al juez la eliminación urgente del material mientras se tramita el caso.
- Preservar la salud mental: Buscar apoyo profesional ante el impacto psicológico del ciberacoso.
- Recurrir a recursos oficiales: Consultar organismos como INCIBE o la Agencia Española de Protección de Datos para orientación y apoyo.
La prevención y la respuesta rápida serán fundamentales para combatir un fenómeno que crece al ritmo de la tecnología y amenaza con desbordar los mecanismos actuales de protección.
Últimas Noticias
Borraste un chat en WhatsApp: así puedes recuperar mensajes eliminados
La app permite restaurar conversaciones borradas solo si se cuenta con una copia de seguridad reciente

Adiós a Magis TV y XUPER TV en Semana Santa: apps para ver películas sin riesgos
Estas dos plataformas ilegales han sido bloqueadas en distintos países y sitios web por su elevado peligro de infectar los dispositivos con malware y robar datos privados

Resident Evil 2 casi llegó a Game Boy Advance: la historia detrás del juego que nunca fue
Limitaciones técnicas y decisiones estratégicas frustraron el sueño de llevar el survival horror a la portátil de Nintendo

Bill Gates tiene un truco para lograr éxito total, pero debes desaparecer 7 días
Durante una semana la idea es vivir sin acceso a internet, reuniones ni llamadas telefónicas

