
El temor a la permanencia de imágenes íntimas generadas por inteligencia artificial (IA) ha marcado la vida de Jane Doe, una adolescente de 17 años que, junto a sus padres, ha presentado una demanda contra los responsables de la aplicación ClothOff.
La joven sostiene que la plataforma, capaz de crear desnudos hiperrealistas a partir de fotografías con ropa, no solo la expuso sin su consentimiento, sino que podría estar utilizando sus imágenes para entrenar modelos de IA, perpetuando el riesgo de nuevas vulneraciones.
Por qué la joven decidió demandar a la aplicación ClothOff
La demanda, presentada en el Tribunal de Distrito de los Estados Unidos del Distrito de Nueva Jersey, detalla que en 2023, compañeros de instituto de Jane Doe obtuvieron imágenes suyas y las cargaron en ClothOff. Con apenas tres clics, la aplicación generó desnudos digitales imposibles de distinguir de una fotografía real.

El texto judicial subraya que: “Jane Doe estaba mortificada y emocionalmente desconsolada, y ha experimentado consecuencias desde entonces”, según consta en la documentación presentada ante el tribunal.
La familia de la adolescente afectada dirige su acción legal contra AI/Robotics Venture Strategy 3, la empresa responsable de ClothOff, argumentando que su modelo de negocio facilita la creación, distribución y monetización de desnudos ilegales.
Qué alegan los demandantes sobre el funcionamiento de esta plataforma
La demanda sostiene que la compañía no solo permite la generación de este tipo de imágenes a través de planes de pago, provee la tecnología subyacente a otros desarrolladores y plataformas.
El escrito judicial afirma que “todo el modelo de negocio de los demandados se basa en los aspectos penales y delictivos de la explotación y victimización de niños y adultos”.

Esto hace referencia a la producción de imágenes hiperrealistas de desnudos sin consentimiento, tanto de menores, lo que constituye material de abuso sexual infantil, como de adultos, en forma de imágenes íntimas no consentidas. El texto califica a la aplicación como “un caldo de cultivo por pornografía infantil, explotación y abuso sexual”.
Cuál es el alcance de las imágenes generadas con inteligencia artificial
La incertidumbre sobre el alcance de la distribución de estas imágenes agrava el daño sufrido por la víctima. La demanda advierte que, “porque no hay forma de determinar hasta qué punto llegaron a distribuirse las imágenes, Jane Doe ahora vive con el temor de que su foto permanezca disponible en ClothOff y en otros lugares”.
La parte demandante alega que a la joven “le preocupa que esas imágenes puedan distribuirse a otras personas y que su imagen se haya utilizado y se siga utilizando para ayudar a entrenar el sistema de inteligencia artificial de ClothOff para mejorar generar CSAM de otras niñas”.

Además, los datos aportados en la demanda reflejan la magnitud del fenómeno: ClothOff produce cada día una media de 200.000 imágenes y recibe unas 27 millones de vistas.
La propia promoción de la app invita a los usuarios a “desnudar a cualquiera” mediante un servicio gratuito, lo que amplifica el potencial de daño y la facilidad de acceso a este tipo de productos.
Qué otros casos se han presentado alrededor del uso de IA para contenido adulto
El caso de Jane Doe no es aislado. En Córdoba, Argentina, un joven de 19 años fue procesado por usar inteligencia artificial para crear y difundir fotos pornográficas falsas de sus compañeras de colegio.

Según el requerimiento de elevación a juicio, el acusado descargó fotografías de menores de edad desde redes sociales y, mediante la técnica de face-swapping, que permite insertar rostros reales sobre cuerpos ajenos, generó deepfakes sexuales que luego publicó en el sitio Poringa, acompañadas de los nombres reales de las víctimas y descripciones denigrantes.
A pesar de que la Justicia ordenó la desindexación de estas imágenes en los sitios web implicados, el nombre de algunas de las jóvenes sigue vinculado a páginas pornográficas en navegadores webs, lo que prolonga el daño a su reputación y dificulta la reparación del perjuicio.
Asimismo, las consecuencias psicológicas para las víctimas han sido severas. La exposición a este tipo de contenidos provocó ansiedad, temor, vergüenza y síntomas compatibles con trastorno de estrés postraumático, lo que requirió tratamientos psicológicos prolongados.
Últimas Noticias
Llamadas spam: frases que nunca debes pronunciar para no caer en fraudes
Decir “sí” puede parecer inofensivo, pero los estafadores pueden grabar la respuesta y utilizarla como autorización para contratar servicios

Presentan dispositivo que permite transmitir el audio de un televisor a varios auriculares
Sennheiser presentó el RS 275, un transmisor digital con tecnología que permite enviar el audio del televisor a varios auriculares simultáneamente

El mensaje de Steve Jobs que marcó un antes y un después sobre el tiempo y la autenticidad
El empresario utilizó su experiencia personal como ejemplo de superación y audacia, animando a los jóvenes a no posponer sus sueños ni conformarse con rutinas impuestas

Cómo es Haven-1, la primera estación espacial privada del mundo
La empresa estadounidense Vast Space, con el apoyo de SpaceX, ultima el lanzamiento de Haven-1, con el objetivo de tomar la posta de la Estación Espacial Internacional

¿Tu cargador se calienta demasiado?: así puedes solucionarlo en pocos pasos
Si el móvil se carga más lento de lo habitual o notas que el adaptador calienta en exceso, el cable podría estar fallando



