
El aumento de los materiales de abuso sexual infantil generados por inteligencia artificial (IA) representa un nuevo y desafiante frente en la lucha contra esta epidemia digital. Investigadores de la Universidad de Stanford, en un informe publicado el lunes 22 de abril de 2024, alertan sobre la creciente amenaza que suponen estas tecnologías emergentes para las autoridades, ya limitadas por tecnologías anticuadas y leyes obsoletas.
La eficacia del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), encargado de coordinar la lucha contra este tipo de contenidos, se ve seriamente comprometida por la falta de recursos necesarios para combatir esta nueva forma de delito, según citó The New York Times.
El informe destaca que, en el último año, los avances en tecnologías de IA han simplificado considerablemente la creación de imágenes explícitas de menores, elevando exponencialmente el volumen de material de abuso sexual infantil (CSAM) en circulación.
Shelby Grossman, uno de los autores del estudio, advierte que, “sin duda, en los próximos años, la CyberTipline se verá inundada de contenido de IA que parece muy realista, dificultando aún más para las fuerzas del orden identificar a los verdaderos niños que necesitan ser rescatados”.

La CyberTipline, establecida en 1998, opera como el principal repositorio federal para todos los informes sobre CSAM en línea, utilizada por las fuerzas de seguridad en la investigación de estos crímenes. Sin embargo, enfrenta serios desafíos, ya que muchos de los consejos recibidos están incompletos o plagados de inexactitudes.
El tamaño reducido de su plantilla ha luchado por mantenerse al día con el volumen de reportes, que fue menos de la mitad de “accionables” en el 2022, debido a la falta de información suficiente por parte de las empresas denunciantes o porque la imagen en una denuncia se había difundido rápidamente en línea y se reportaba demasiadas veces.
Según datos del informe, en un solo día a principios de este año, la CyberTipline recibió un récord de un millón de informes de CSAM, saturando temporalmente la capacidad de respuesta de los investigadores. Este pico inusual resultó estar relacionado mayormente con la difusión de una imagen dentro de un meme, compartido en plataformas para expresar indignación, no con intención maliciosa.

Los desafíos tecnológicos añaden otra capa de complejidad al esfuerzo del NCMEC. Según Alex Stamos, otro de los autores del informe, el NCMEC y sus contratistas están limitados por regulaciones que les impiden usar proveedores de computación en la nube, requiriendo en cambio que las imágenes se almacenen localmente en computadoras.
Esta restricción dificulta la construcción y utilización de hardware especializado necesario para crear y entrenar modelos de IA para sus investigaciones. “Un millón de imágenes idénticas ya es bastante difícil, un millón de imágenes separadas creadas por IA los rompería”, afirmó Stamos.
Ante la creciente indignación pública sobre la proliferación de imágenes de abuso sexual de niños en línea, recientemente se intensificó el escrutinio sobre la responsabilidad de grandes plataformas tecnológicas en la protección de los menores. Durante una audiencia con los directores ejecutivos de Meta, Snap, TikTok, Discord y X, los legisladores criticaron severamente a estas empresas por no hacer lo suficiente para proteger a los niños en línea.

La legislación que aumente el financiamiento del NCMEC y le otorgue acceso a tecnología más avanzada fue defendida tanto por el centro como por los investigadores de Stanford, quienes accedieron a entrevistas con empleados y sistemas del centro para demostrar las vulnerabilidades de los sistemas que necesitan actualización.
La organización enfatizó que “a lo largo de los años, la complejidad de los reportes y la gravedad de los crímenes contra niños siguen evolucionando”, abogando por la adopción de soluciones tecnológicas emergentes en todo el proceso de la CyberTipline para salvaguardar a más niños y responsabilizar a los delincuentes.
El informe de Stanford también subraya la necesidad de que el Centro Nacional para Niños Desaparecidos y Explotados adapte su línea de consejos para que las fuerzas del orden puedan determinar qué informes implican contenido generado por IA. Además, insta a las empresas que denuncian material potencial de abuso en sus plataformas a completar los formularios de manera exhaustiva.
Últimas Noticias
Alerta sanitaria: brote de norovirus afectó a un crucero de Princess Cruises
La reciente propagación viral obligó a la empresa a implementar medidas de limpieza y monitoreo. Las autoridades sanitarias reportan que los síntomas se distribuyeron entre viajeros y trabajadores durante un trayecto de una semana

Inspirados en San Francisco, Los Ángeles estudia subsidios al comercio minorista para reactivar el centro
Experiencias exitosas al norte del estado muestran que la combinación de incentivos económicos y colaboración público-privada puede revertir la tendencia y atraer inversiones al downtown angelino

Donald Trump aseguró que la ofensiva contra el régimen iraní evitó un conflicto nuclear y la Tercera Guerra Mundial
El presidente de Estados Unidos sostuvo que los ataques en Teherán impidieron una catástrofe atómica y denunció la falta de apoyo de otros países para proteger el estrecho de Ormuz

El fenómeno viral convierte a Woodlawn en destino cultural para neoyorquinos
Las publicaciones en TikTok e Instagram estimulan el arribo de miles de personas que buscan experiencias auténticas

El gobierno federal desafía a California y reactiva el oleoducto de Santa Bárbara
La administración Trump invoca la Ley de Producción para la Defensa para reiniciar el flujo de petróleo, generando una batalla legal con autoridades estatales y ambientalistas preocupados por el impacto en zonas protegidas


