Capturado depredador sexual que usaba IA para hacerse pasar por un niño en internet: lideraba una red internacional de abuso

Varias personas fueron capturadas en Medellín, Ibagué y Villavicencio durante un operativo internacional que permitió a la Policía Nacional desarticular una red de explotación sexual infantil

Guardar
El operativo dejo 6 capturados a nivel nacional - crédito Policía Nacional
El operativo dejo 6 capturados a nivel nacional - crédito Policía Nacional

La Policía Nacional logró desmantelar una red transnacional de explotación sexual infantil tras una investigación de 16 meses, en la que participaron agencias internacionales.

El operativo, realizado de manera simultánea en Medellín, Ibagué y Villavicencio, culminó con la captura de seis personas señaladas de almacenar y distribuir material de abuso sexual de menores.

Ahora puede seguirnos en Facebook y en nuestro WhatsApp Channel

Entre los detenidos figura alias ‘Jorge’, quien, según las autoridades, “utilizaba más de nueve perfiles falsos apoyados en inteligencia artificial” para suplantar la identidad de un menor y ganarse la confianza de niños. Este individuo habría conseguido “afectar al menos a 38 víctimas, todas de nacionalidad española, con edades entre los siete y los once años”.

Durante la operación, las autoridades incautaron más de 130 imágenes y 115 videos de contenido ilegal. El general Óscar Rico, director de Protección y Servicios Especiales, destacó: “Estos criminales pensaron que el anonimato digital era un escudo. Hoy demostramos que la tecnología también está de nuestro lado para proteger a los menores”.

(Imagen Ilustrativa Infobae)
Según la información, el hombre creaba perfiles falsos con inteligencia artificial para engañar a menores - crédito (Imagen Ilustrativa Infobae)

En lo que va de 2026, se han registrado 671 capturas y el bloqueo de 550 páginas web relacionadas con delitos similares. Durante las audiencias judiciales, alias ‘Jorge’ aceptó los cargos en su contra.

Además, la proliferación de deepfakes, es decir, “contenido falso generado o manipulado con IA para crear imágenes, vídeos y audios en los que una persona parece decir o hacer cosas que nunca ocurrieron”, ha marcado una nueva era de desafíos para la seguridad digital y la protección de la infancia.

Su alto nivel de realismo permite que engañen tanto a quienes los observan como a quienes los escuchan, dificultando la detección a simple vista. Los especialistas distinguen dos grandes categorías de estos materiales.

Por un lado, los deepfaces: “Imágenes o videos falsos que suplantan la identidad de una persona haciendo parecer que dice o hace cosas que no se ajustan a la realidad”. Por otro, los deep voices o voice hacking: “Audios falsos que suplantan la voz de una persona, pueden ser utilizados para difundir declaraciones o discursos que nunca fueron pronunciados por la persona en cuestión”.

(Imagen Ilustrativa Infobae)
Mediante deepfake los delincuentes lograban obtener imágenes explicitas de menores - crédito (Imagen Ilustrativa Infobae)

Según Unicef la tecnología deepfake se ha convertido en una herramienta empleada cada vez más para la creación de “contenido sexualizado de niños y niñas, incluida la ‘nudificación’, que se refiere al uso de las herramientas de IA para retirar o modificar la ropa en fotografías con el fin de crear imágenes sexualizadas o desnudos falsos”.

El informe realizado en conjunto con la Interpol revela la gravedad del fenómeno: “Al menos 1,2 millones de niños y niñas revelaron haberse visto afectados en el último año por la manipulación de sus imágenes mediante deepfakes con contenido sexual explícito”.

El estudio, realizado en 11 países, arroja una cifra que en algunos casos equivale a “1 de cada 25 niños y niñas”, lo que puede asimilarse a que en un aula escolar estándar haya al menos una víctima. Además, el propio informe resalta que “en algunos de los países del estudio, hasta dos terceras partes de los niños y niñas afirmaron estar preocupados por que se pudiera emplear la IA para falsificar imágenes o vídeos suyos con carácter sexual”.

Para evitar caer en la trampa de los deepfakes, los especialistas recomiendan varias estrategias clave. “Verificar la fuente” es el primer paso: si el contenido no proviene de un sitio confiable o tiene origen en perfiles desconocidos, es mejor desconfiar. También resulta fundamental evaluar la coherencia: si el material busca provocar polémica o escándalo, o si parece exagerado, conviene mantener la cautela y no contribuir a su viralización.

Ilustración de un adolescente preocupado frente a una laptop en una habitación oscura, con múltiples pantallas y móviles mostrando siluetas pixeladas de deepfakes.
Los menores de edad están más expuestos a este tipo de engaños en rede sociales - crédito (Imagen Ilustrativa Infobae)

Al analizar vídeos, conviene observar los parpadeos y movimientos faciales, ya que suelen presentar “un número anormal de parpadeos o movimientos faciales poco naturales”. En cuanto a los audios, hay que atender a posibles “variaciones inusuales en el tono y el ritmo del habla” o la ausencia de ruido de fondo, lo que puede indicar manipulación.

Las imágenes, por su parte, pueden delatarse por “fallos en detalles como manos con dedos desproporcionados o fondos que no se alinean correctamente” y por incoherencias en la iluminación o las sombras.