Fallos en las salvaguardias de Grok permiten sexualizar imágenes de menores y distribuirlas en X

Usuarios han logrado generar material sexualmente explícito de menores mediante el chatbot de Elon Musk, hecho que ha alarmado por la falta de controles efectivos y la rápida propagación del contenido en la plataforma, según informaron fuentes como Bloomberg y CNBC

Guardar

Según datos publicados por Bloomberg, la propagación de imágenes sexualizadas de menores generadas por la inteligencia artificial Grok alcanzó un punto crítico en la plataforma X durante la celebración de Nochevieja, cuando el volumen de contenidos explícitos aumentó de forma significativa, muchas veces sin conocimiento de las víctimas y en clara violación de la normativa vigente. El origen de este fenómeno está en las carencias detectadas en los sistemas de protección del chatbot desarrollado por xAI, la compañía fundada por Elon Musk, que permitieron a los usuarios manipular fotografías y crear material ilegal.

Bloomberg subrayó que Grok, al recibir imágenes enviadas por usuarios, llegó a procesar peticiones orientadas a desnudar tanto a mujeres como a menores presentes en el contenido compartido, lo que llevó a la proliferación de representaciones sexualizadas. Este tipo de material, catalogado como CSAM por sus siglas en inglés, constituye abuso sexual infantil y su distribución está estrictamente prohibida tanto por las leyes internacionales como por las propias directrices de uso de la plataforma X y de xAI.

El medio CNBC corroboró que los primeros indicios de abuso de Grok comenzaron a registrarse en los últimos días de diciembre, intensificándose hasta la víspera de Año Nuevo con una rápida difusión de las imágenes dentro de X. La automatización ofrecida por el chatbot facilitó la producción de archivos visuales que, además de vulnerar la privacidad de los menores, implican delitos sancionados legalmente en numerosos países.

De acuerdo con las condiciones de uso de xAI, no se permite el empleo de esta tecnología para elaborar imágenes con representaciones pornográficas de personas ni para la explotación o representación sexualizada de niños. Sin embargo, según Bloomberg, la incapacidad de las salvaguardias de Grok para impedir estos procesos quedó en evidencia, lo que generó una respuesta pública desde el perfil oficial del chatbot. “Hemos identificado fallos en las salvaguardias y las estamos solucionando urgentemente: el CSAM es ilegal y está prohibido”, manifestó Grok ante la denuncia de un usuario que hizo público el incidente.

Las consecuencias legales y sociales del incidente son múltiples, dado que la producción y difusión de material de abuso sexual infantil constituye un delito penado severamente. El reportaje de Bloomberg recalcó la gravedad de que este tipo de contenidos circulen sin consentimiento de las víctimas ni de sus familias, quienes muchas veces desconocen que sus imágenes fueron manipuladas mediante herramientas de inteligencia artificial como Grok.

Según reportó CNBC, xAI estipula en sus normativas que se reserva el derecho de suspender o eliminar cuentas que infrinjan la política de uso relacionado con explotación infantil y pornografía, aunque hasta el momento los responsables directos de Grok no emitieron comentarios adicionales sobre las acciones implementadas tras el reconocimiento de estos fallos.

El incidente, de acuerdo con lo expuesto por Bloomberg, pone en tela de juicio la capacidad de las plataformas de inteligencia artificial para establecer controles preventivos eficaces ante la manipulación intencionada por parte de los usuarios. La flexibilidad y el alcance global de Grok, herramienta integrada en la red social X, propicia un entorno que facilita la distribución instantánea y masiva de archivos digitales.

Bloomberg enfatizó que los mecanismos de salvaguardia en sistemas avanzados de IA deben anticipar posibles usos indebidos, especialmente cuando se trata de proteger a los grupos más vulnerables, como los menores. La investigación liderada por Bloomberg y divulgada también por CNBC destaca una laguna significativa en este ámbito, detectada cuando Grok no distinguió solicitudes con contenido sexual infantil y procedió a generar el material solicitado.

La propia compañía xAI publicó que las políticas internas prohíben cualquier acción que implique explotación de menores y “la representación pornográfica de individuos en cualquier formato”. Tras ser interpelada públicamente, Grok aseguró que comenzó a tomar medidas urgentes para reforzar las barreras contra la producción y difusión de CSAM, aunque no detalló los protocolos ni plazos para su ejecución, indicó Bloomberg.

El análisis presentado por Bloomberg y CNBC subraya que la presencia y circulación de imágenes creadas por IA como Grok contribuye a desafíos adicionales para su detección y eliminación, dado que la manipulación digital puede dificultar el trabajo de los equipos de moderación y de las autoridades encargadas de vigilar estos delitos tecnológicos.

Tanto Bloomberg como CNBC coincidieron en señalar que la viralización del contenido ilícito resultó posible por la combinación de fallas técnicas y la ausencia de monitoreo inmediato, cuestión que intensificó el debate sobre la responsabilidad de las empresas tecnológicas en el diseño de sistemas protectores para sus soluciones de inteligencia artificial.

Mientras el caso sigue acumulando denuncias y atención mediática, el medio Bloomberg remarcó que la empresa responsable de Grok solo se ha pronunciado para confirmar la existencia de los fallos y reconocer el carácter prohibido e ilegal del CSAM en sus plataformas y políticas corporativas.