
Dos adolescentes de 14 años fueron sentenciados a libertad condicional el miércoles, luego de admitir la creación de aproximadamente 350 imágenes falsas de desnudos de compañeras menores de edad en un colegio privado de Pensilvania. Esta decisión judicial expuso el impacto traumático de estas prácticas y desató un ferviente debate sobre los límites legales de la inteligencia artificial en la privacidad juvenil.
Durante la audiencia, decenas de víctimas detallaron la angustia psicológica, los ataques de ansiedad y el temor constante a la futura difusión de las imágenes manipuladas, lo que reflejó tanto la magnitud del daño causado como la inquietud por la permanencia digital de esos contenidos.
El juez Leonard Brown permitió el acceso público a la audiencia, algo inusual en el sistema penal juvenil de Pensilvania. Esa apertura permitió que más de 100 estudiantes y padres de la Lancaster Country Day School presenciaran los testimonios. Una de las afectadas declaró: “Nunca podré comprender por qué hicieron esto. Destruyó mi inocencia”, mientras otra adolescente relató su dificultad para superar el trauma y la necesidad de iniciar terapia ante el miedo hasta de circular por su propio vecindario.
De acuerdo con el diario New York Post, los imputados utilizaron retratos extraídos de anuarios y de redes sociales —como Instagram, TikTok y chats de FaceTime— e involucraron a al menos 59 adolescentes identificadas; aún quedan víctimas por reconocer.

Los dos acusados no hablaron en el tribunal ni aprovecharon la oportunidad de ofrecer disculpas. El magistrado Brown advirtió que, de ser adultos, ambos habrían enfrentado penas de prisión estatal y señaló: “Deben aprovechar esta oportunidad para examinarse profundamente”.
Como parte de la condena, los adolescentes deben cumplir 60 horas de servicio comunitario, tienen prohibido contactar a las víctimas y deberán pagar un monto de restitución aún no determinado. El caso podrá eliminarse de sus antecedentes si pasan dos años sin reincidir ni enfrentar nuevos cargos.
El uso de deepfakes en escuelas y la reacción inmediata
El incidente ocurrido en Pensilvania motivó protestas estudiantiles y el relevo de parte del equipo directivo en un colegio que cuenta con cerca de 600 alumnos, clases de promedio reducido —12 estudiantes por aula— y recursos financieros que superan los USD 25 millones, según el diario New York Post. El abogado Nadeem Bezar, que representa a al menos diez de las víctimas, anticipó la presentación de demandas contra la escuela y otros presuntos responsables por el uso y circulación de imágenes falsas.
Bezar afirmó: “El proceso legal establecerá exactamente cuándo, dónde y cómo la escuela conocía lo sucedido, cómo los adolescentes generaron estas imágenes, qué plataformas usaron y cómo se distribuyeron”.

La defensa de los acusados expuso diferencias en la actuación de ambos. Los abogados Adam Szilagyi y Christopher Sarno indicaron que uno de los jóvenes “no empleó por sí mismo ningún generador de inteligencia artificial ni difundió imágenes”, aunque admitieron que “ambos recolectaron e intercambiaron imágenes originales no alteradas, que luego fueron introducidas en el generador”.
La representación de otro imputado emitió un comunicado en el que expresó que su defendido está “sumamente arrepentido por su participación en la creación de imágenes generadas por IA y lamenta cualquier daño causado”.
Impacto nacional y nuevos casos vinculados a inteligencia artificial
El alcance del caso se extendió más allá de Pensilvania. Apenas algunos días antes, tres estudiantes de secundaria en Tennessee iniciaron acciones legales contra la empresa xAI de Elon Musk, alegando que la herramienta Grok transformó fotografías reales en imágenes sexualmente explícitas.
Los estudiantes buscan el reconocimiento de acción colectiva para representar a “miles de personas menores de edad igualmente agraviadas”, según detalló el diario New York Post.
Cambios legislativos frente al avance de los deepfakes
Ante la expansión de la tecnología, el Congreso y los estados de Estados Unidos intensificaron la regulación. El presidente Donald Trump promulgó la Take it Down Act en 2023, ley que declaró ilegal la publicación de imágenes íntimas manipuladas —incluidos deepfakes— sin consentimiento, e impuso a los sitios web la obligación de eliminarlas en un máximo de 48 horas después de la notificación de las víctimas.
Según la organización de defensa del consumidor Public Citizen, 46 estados ya cuentan con leyes específicas para combatir los deepfakes, y los cuatro restantes —Alaska, Misuri, Nuevo México y Ohio— avanzan en proyectos legislativos sobre el tema.
Últimas Noticias
Crecen los alquileres ilegales cerca del MetLife Stadium en la previa de la Copa Mundial 2026
La demanda internacional genera anuncios irregulares en zonas residenciales de Nueva Jersey, donde aficionados enfrentan multas, anulaciones y estrictas normativas durante la máxima cita deportiva

“¡Hola, preciosa!”: la referencia oculta en el cartel del puente de Brooklyn
La incorporación de una referencia cinematográfica logra estimular el diálogo acerca de la riqueza cultural de la ciudad, aunque muchos ciudadanos manifestaron desconocer el origen y el significado del saludo impreso

Nueva York y California pierden miles de millones por la llegada de residentes a Florida
El traslado masivo hacia el sur modifica el reparto de recursos, impulsa el desarrollo local y plantea a las zonas de origen el reto de mantener servicios con menos aportantes y caída en la recaudación

Ohio da media sanción a ley que limita espectáculos drag y acceso transgénero a baños
La medida aprobada en la Cámara de Representantes refuerza controles sobre presentaciones y uso de instalaciones diferenciadas, mientras organizaciones civiles expresan preocupación por el impacto en los derechos de la comunidad LGBTQ+

Lanzan el primer programa de salud mental con IA autorizada para prescribir medicamentos psiquiátricos en Utah
El nuevo sistema anunciado por Legion Health permitirá la prescripción asistida digitalmente a usuarios que ya posean una receta previa, bajo una supervisión médica escalonada y con controles de seguridad y consentimiento de los pacientes



