
La investigación del Centro para la Lucha contra el Odio Digital (CCDH) reveló que incluso después del 15 de enero, cuando X inhabilitó las funciones del generador de imágenes sexualizadas de Grok, cerca del 29 por ciento de las imágenes de menores todavía seguían accesibles en la plataforma. Este hallazgo se produjo tras la ola de críticas y exigencias de intervención de parte de autoridades y organismos internacionales frente a la proliferación de contenido prohibido elaborado y distribuido por la inteligencia artificial de Grok, según informó The New York Times.
El problema se agudizó a partir del 29 de diciembre, cuando X introdujo una función que permitía a cualquier usuario modificar, mediante Grok, fotos ya subidas a la red social con solo un clic, de acuerdo con el resumen publicado por The New York Times y el CCDH. Durante los 11 días subsiguientes, la herramienta desarrollada por xAI —la compañía dirigida por Elon Musk— impulsó la creación y publicación de unas 4,4 millones de imágenes, de las cuales entre el 41 por ciento y el 65 por ciento presentaban contenido sexualizado según los informes mencionados.
Ambas fuentes precisaron que se compartieron más de tres millones de imágenes sexualizadas en la plataforma durante este breve periodo, de las cuales aproximadamente 1,8 millones correspondían a representaciones de mujeres. Entre las personas afectadas por la manipulación digital a través de Grok figuran celebridades y personalidades públicas como Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, la viceprimera ministra de Suecia Ebba Busch y la exvicepresidenta de Estados Unidos Kamala Harris, de acuerdo con el análisis de The New York Times.
El CCDH destacó que entre las imágenes generadas se identificaron unas 23.000 representaciones sexualizadas de menores, incluidos casos de niñas en bikini y niños actores. El informe añade que la inteligencia artificial también fue utilizada para producir cerca de 9.900 imágenes sexuales de menores en estilo de dibujo animado. El director ejecutivo del CCDH, Imran Ahmed, expresó, según recogió The New York Times, que estas prácticas representan una forma de abuso a gran escala y subrayó la gravedad de su difusión masiva en redes abiertas como X: “Han existido herramientas de desnudez, pero nunca han tenido la distribución, la facilidad de uso ni la integración en una gran plataforma que Elon Musk logró con Grok.”
De acuerdo con la cronología presentada por The New York Times, el 2 de enero la empresa reconoció públicamente las deficiencias en los mecanismos de protección y moderación incorporados al generador de imágenes, después de que salieran a la luz publicaciones que mostraban la facilidad con la que el asistente de IA accedía a solicitudes explícitas de los usuarios para transformar fotos de mujeres y niños, bien para vestirlos con bikinis o colocarlos en situaciones sexualizadas. Todo ello quedó reflejado en la conversación pública y en el aumento de denuncias por parte de usuarios en X, así como en la presión institucional ejercida por gobiernos de la Unión Europea, Reino Unido y España.
xAI respondió inicialmente el 9 de enero restringiendo el acceso al generador de imágenes para el público general, limitándolo exclusivamente a miembros de pago. Finalmente, el 14 de enero bloqueó por completo la generación de imágenes sexualizadas a través de Grok para todos los usuarios, una decisión que The New York Times atribuyó a la acumulación de quejas e intervenciones oficiales.
The New York Times y el CCDH calcularon el volumen exacto de imágenes sexualizadas generadas mediante el análisis de una muestra aleatoria de 20.000 archivos sobre un total estimado de 4,6 millones producidos entre el 29 de diciembre y el 8 de enero. Esta metodología, combinando estadística y herramientas de reconocimiento por inteligencia artificial, permitió establecer que la tasa de producción de imágenes sexualizadas alcanzó una media de 190 imágenes por minuto. Tanto el informe del CCDH como las estimaciones periodísticas concluyeron que Grok superó ampliamente los límites de seguridad incorporados en las políticas de uso aceptable proclamadas por xAI.
La función de Grok permitía la edición directa de cualquier imagen publicada en X sin requerir consentimiento de las personas retratadas ni verificación adicional. Esto facilitó la generación masiva y la distribución sin filtros de contenido prohibido, lo que generó preocupación entre organismos de protección infantil y defensores de los derechos de las mujeres. El informe periodístico detalló que muchas de las imágenes editadas por Grok afectaron a figuras públicas, pero el efecto se extendió, sin distinción, a usuarias y usuarios anónimos cuyas fotografías circulaban por la red social.
Las políticas de xAI y X proscriben de manera explícita la utilización de sus tecnologías para crear o promover contenido sexualizado de menores, así como imágenes modificadas de personas sin consentimiento. Sin embargo, según los datos analizados por The New York Times, las salvaguardias automatizadas no impidieron la difusión a gran escala durante el periodo en que la herramienta estuvo disponible con acceso público.
El análisis conjunto de The New York Times y el CCDH pone de manifiesto la vulnerabilidad de las plataformas sociales ante el impacto de sistemas de IA generativa cuando las restricciones se relajan o fallan, y subraya la brecha entre lo establecido en las políticas de uso y la realidad observable durante la etapa previa a las medidas restrictivas de la empresa.