Seúl, 11 sep (EFE).- Las autoridades surcoreanas están investigando actualmente 513 casos distintos de pornografía falsa, un 72,7 % más que hace poco más de un mes, según informó hoy en rueda de prensa la Agencia Nacional de Policía (NPA).
A finales de julio, poco después de que comenzara la oleada de denuncias de casos en Corea del Sur, la NPA reportó que estaba investigando 297 casos.
A este ritmo se espera que el total de casos denunciados e investigados en Corea del Sur en todo 2024 pulverice el récord establecido con 180 casos el año pasado.
En 2023 ya se apreciaba un aumento de este tipo de denuncias con respecto a años anteriores (160 casos en 2022 y 156 en 2021), aunque muy ligero en comparación con la tromba de este año.
La policía cree que una de la razones por las que están aflorando más casos es por que la atención mediática generada desde julio parece estar provocado un efecto llamada para mujeres, en su mayoría adolescentes, que han sido víctimas y que ahora se han animado a denunciar por que hasta entonces desconocían que el porno ultrafalso tipificaba como un delito.
La denominada pornografía ultrafalsa o "deepfake" es aquella que se elabora usando la imagen, normalmente robada de redes sociales o internet, del rostro de una persona real, y que muchas veces se utiliza a modo de "pornovenganza" o incluso para extorsionar a las víctimas, en su inmensa mayoría mujeres.
En los primeros nueve meses de este año, 318 personas han sido detenidas acusadas de producir y distribuir pornografía ultrafalsa en Corea del Sur.
Preocupa especialmente que 251 de ellos, o el 78,9 %, sean menores de edad, y que 63 (el 19,8 %) tengan 14 años o menos.
Investigaciones preliminares en julio detectaron la existencia de más de 100 salas en la aplicación de mensajería instantánea Telegram con este tipo de imágenes de mujeres surcoreanas, muchas de ellas adolescentes, y al menos unos 220.000 participantes que distribuyen y consumen estos materiales.
Se cree que la proliferación de este tipo de grupos y el aumento en la distribución de estos materiales responde a la facilidad cada vez mayor para encontrar en las redes programas o bots que emplean inteligencia artificial para producir imágenes fijas o vídeos pornográficos a partir de imágenes reales de rostros, robadas a su vez de redes sociales.
El regulador surcoreano de comunicaciones dijo la semana pasada que la aplicación de mensajería Telegram ha cumplido con su solicitud de eliminar determinados contenidos pornográficos ultrafalsos de su plataforma y que se ha disculpado por su rol en esta oleada de casos.
La polémica con Telegram en Corea del Sur coincide a su vez con la detención de Pavel Durov, fundador de Telegram, el mes pasado en Francia, donde lo acusan de complicidad con el narcotráfico o en la difusión de imágenes pedófilas por la negativa de la plataforma, que ha hecho de la privacidad su buque insignia, a compartir datos en diferentes investigaciones delictivas. EFE
asb/ahg/jgb