
Empresas líderes como Google, Meta, Microsoft, OpenAI y Amazon han unido fuerzas en un proyecto pionero que aspira a establecer normativas sólidas para prevenir que la IA genere imágenes de abuso sexual infantil.
Este proyecto, impulsado por Thorn y All Tech is Human, busca enfocar el poder transformador de la IA hacia un progreso que resguarde los derechos y la integridad de los menores.
PUBLICIDAD
La iniciativa subraya la importancia de utilizar bases de datos limpias para el entrenamiento de modelos de IA. Las empresas han asumido el compromiso de asegurarse de que los datos empleados para alimentar sus sistemas no contengan imágenes que exploten a menores.
Además, las empresas tecnológicas deberán implementar mecanismos robustos de control y pruebas rigurosas para demostrar que sus modelos de IA generativa están libres de la capacidad de crear imágenes de abuso sexual infantil.
PUBLICIDAD

Este proyecto también refuerza la idea de que la innovación tecnológica debe ir de la mano con una firme ética de desarrollo. En su búsqueda por explorar los límites de lo posible, la IA no debe traspasar los límites de lo moralmente aceptable.
La magnitud del problema que estas directrices buscan mitigar es alarmante. Solo en Estados Unidos, más de 104 millones de archivos sospechosos de contener material de abuso sexual infantil fueron reportados en 2023, según datos proporcionados por Thorn.
PUBLICIDAD
Esta cifra refleja la urgencia de establecer barreras digitales efectivas contra la proliferación de tales contenidos en la red.
¿Cómo la IA puede afectar la integridad de menores?
La inteligencia artificial generativa, aunque posee un enorme potencial para la innovación, también representa un riesgo significativo para la protección y seguridad de los menores, por lo que merece atención urgente.
PUBLICIDAD

De acuerdo con el documento que sustenta el proyecto anteriormente mencionado, la IA puede afectar el proceso de identificación de víctimas con la proliferación de imágenes falsas.
Además, esta tecnología puede ser utilizada para intensificar prácticas de acoso, como el grooming y la sextorsión, al producir contenido que simula acciones y poses explicitas sin necesidad de material inicial explícito.
PUBLICIDAD
Este tipo de contenido podría también tener el potencial de aumentar los delitos de contacto físico. “La normalización de este material también contribuye a otros resultados perjudiciales para los niños”, se lee en el documento.
Los modelos de IA generativa pueden ser utilizados por depredadores para compartir consejos sobre cómo cometer abusos de manera efectiva, incluyendo formas de coaccionar a las víctimas, destruir evidencias o manipular material de abuso para evitar la detección.
PUBLICIDAD

Fenómeno de los deepfakes sexuales no consensuados
El fenómeno de la creación y distribución de imágenes no consensuadas mediante inteligencia artificial se ha expandido más allá de los menores, afectando también a adultos, incluyendo figuras públicas y celebridades.
Una reciente investigación realizada por Forbes destapó cómo eBay, la conocida plataforma de subastas en línea, se había convertido en un mercado para la venta de contenido explícito falso de celebridades reconocidas.
PUBLICIDAD
Utilizando herramientas avanzadas de inteligencia artificial y edición como Photoshop, se generaron imágenes sexualmente explícitas de al menos 40 personalidades famosas, entre ellas Margot Robbie, Selena Gómez y Jenna Ortega.

Sorprendentemente, una tienda en eBay ofrecía a la venta más de 400 productos que contenían fotos alteradas de celebridades como Taylor Swift, Selena Gómez, Katy Perry, Ariana Grande y Alexandria Ocasio-Cortez, presentándolas en situaciones comprometedoras.
PUBLICIDAD
La reacción de eBay ante la alerta de Forbes fue inmediata, procediendo a la eliminación de cientos de estas fotografías falsas y a la suspensión de las cuentas de los vendedores implicados.
Este incidente subraya la urgencia de implementar medidas más rigurosas para combatir la diseminación de contenido digital generado sin consentimiento, resaltando la necesidad de un marco regulatorio más estricto que proteja la integridad y privacidad de todas las personas en el entorno digital.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Confiar en la IA para resolver problemas nos hace más propensos a fracasar sin esta tecnología, según estudio
Los investigadores analizaron el impacto de la inteligencia artificial en la resolución de problemas matemáticos y de lectura

Una solución para los centros de datos: placas de cobre que reducen hasta el 98% de consumo energético
La tecnología reduce el consumo por enfriamiento del 30% al 1,1% en grandes instalaciones

Investigadores crean un chip cerebral híbrido: fusionaron 70.000 neuronas vivas con componentes electrónicos
El diseño utiliza materiales flexibles compatibles con el tejido biológico para una integración prolongada

Esta nueva tecnología procesa 250 kilos de baterías usadas de autos eléctricos por hora para recuperar metales valiosos
El proyecto ReCAM transforma estos residuos en materiales listos para fabricar nuevas celdas

Cómo crear actualizaciones de estado en WhatsApp sin abrir la app
Este ‘atajo’ también permite visualizar estados desde la pantalla principal del celular



