
La utilización de una aplicación tecnológica capaz de desvestir virtualmente a menores ha desencadenado una investigación judicial en Almería, donde se investiga la posible comisión de delitos relacionados con pornografía infantil producida mediante inteligencia artificial (IA) en perjuicio de 18 chicas de un instituto local. Según informó la Fiscalía de Almería, la intervención surge tras detectarse la creación de imágenes falsas de adolescentes con herramientas de IA, planteando interrogantes sobre la protección jurídica y el alcance de la responsabilidad penal en entornos digitales avanzados.
De acuerdo con la información publicada por diversos medios y ampliada durante las Jornadas ‘Inteligencia artificial y derechos fundamentales’ organizadas por la Guardia Civil junto a la Universidad de Almería (UAL), el fiscal delegado provincial de Criminalidad Informática y de Tutela Penal de la Igualdad y Delitos de Odio, David Calvo, detalló los avances de la investigación y alertó sobre la facilidad de acceso a aplicaciones que permiten generar desnudos virtuales de víctimas a partir de imágenes originales. El fiscal explicó el impacto de los llamados ‘deepfakes’, ilustrando cómo la tecnología desafía la veracidad, el honor y la privacidad, al elaborar imágenes donde los personajes parecen reales pese a tratarse de composiciones manipuladas digitalmente.
El funcionario precisó que el programa empleado, operado principalmente por hombres, genera diariamente unos 3.900 desnudos virtuales de mujeres, y que el 90 por ciento de sus usuarios también produce escenas sexuales completas. Calvo señaló que, conforme a la legislación vigente, la distribución o generación de imágenes de menores con apariencia verídica constituye delito de pornografía infantil virtual, equiparando la protección legal de estos productos digitales con la que existe ante representaciones reales. Destacó que en el caso investigado en Almería, la afectación a los menores puede acarrear consecuencias penales graves para los responsables.
El evento reunió a especialistas de las Fuerzas y Cuerpos de Seguridad del Estado, del sector judicial y de la ingeniería, que analizaron los retos éticos y legales que supone el desarrollo acelerado de la inteligencia artificial y la sofisticación de las plataformas para modificar imágenes. Según reportó la UAL, el objetivo del encuentro fue consolidar la confianza pública en la tecnología y subrayar el papel de los cuerpos de seguridad en la defensa de una aplicación ética y legal de la IA.
Durante la jornada, el rector de la UAL, José J. Céspedes, enfatizó el carácter transformador y disruptivo de la inteligencia artificial, rescatando la necesidad de adaptar las normativas para frenar su uso con fines ilícitos y resguardar los derechos de la ciudadanía, en especial la privacidad y la seguridad de los niños y adolescentes. Afirmó que “es necesario regular para evitar consecuencias indeseadas de su uso con fines delictivos y para proteger la privacidad, los derechos fundamentales de las personas y, especialmente, la protección de los más vulnerables, como son los menores”.
Por su parte, el coronel de la Guardia Civil de Almería, José Antonio Carvajal, argumentó que la IA ha abierto escenarios donde ya no se requiere la presencia física para cometer delitos en cualquier parte del mundo, lo que demanda una rápida adaptación de las instituciones públicas. Resaltó el valor de las jornadas en el análisis de prácticas como los ‘deepfakes’ o la clonación de voces, así como la promoción de un marco claro y ético que establezca límites legales destinados a proteger la privacidad e integridad de los ciudadanos. Expuso que la IA debe ser utilizada como aliada en la prevención y detección de amenazas, siempre bajo el respeto total a los derechos fundamentales.
La vicedecana de la Facultad de Derecho, María José Cazorla González, abordó durante el evento la gestión de riesgos y el consentimiento en el tratamiento de datos, enfocando su exposición en la defensa de los derechos básicos afectados por el desarrollo de aplicaciones digitales que permiten vulnerar la privacidad y la imagen de los menores. Según publicó la UAL, la reflexión se centró en la importancia de reforzar las medidas de control y protección ante el avance imparable de estas herramientas.
El subdelegado del Gobierno en Almería, José María Martín, aportó un enfoque sobre la respuesta institucional a la proliferación del discurso de odio y la polarización ideológica en espacios digitales. Durante su intervención, presentó la herramienta denominada ‘Hodio’, implementada por el Gobierno para medir y analizar la evolución de los mensajes de odio en redes sociales. Según explicó Martín, “debemos ser capaces de medir la ‘huella del odio’ en el espacio digital para poder combatirlo con mayor eficacia, porque el odio que circula por las redes, alimentado por bots, termina muchas veces contaminando el debate público y deteriorando la convivencia”.
Durante la tarde, el enfoque de las jornadas giró hacia la inteligencia predictiva y el establecimiento de buenas prácticas para reducir sesgos algorítmicos en las investigaciones criminales. Entre los participantes estuvieron el coordinador del Grado en IA y Ciberseguridad de la UAL, Antonio J. Fernández García, junto al teniente coronel de la Guardia Civil y expertos de la Jefatura de Información de la DGGC y del sector privado, quienes intercambiaron experiencias sobre el impacto y los desafíos de la inteligencia artificial en la gestión de la seguridad y los derechos de las víctimas.
Según consignó la UAL, la jornada resultó clave para poner en común experiencias de diferentes ámbitos y definir líneas de actuación que garanticen la protección jurídica y el control ético en el uso de herramientas tecnológicas avanzadas, con especial foco en los grupos más vulnerables, como los adolescentes. El caso de Almería evidencia la urgencia de la colaboración entre justicia, fuerzas de seguridad, comunidad educativa e ingeniería para afrontar la proliferación de prácticas ilícitas dirigidas a menores y fortalecer los mecanismos de respuesta frente a futuros casos vinculados a la manipulación digital de imágenes personales.

