Reino Unido pidió a Elon Musk acciones urgentes para frenar ‘deepfakes’ sexuales de niños en X

El Gobierno británico respaldó al regulador Ofcom y advirtió que la plataforma debe cumplir con la ley de seguridad en internet, en medio de crecientes críticas por fallas en la moderación y el uso de inteligencia artificial para generar contenido ilegal

Guardar
FOTO DE ARCHIVO. Un modelo
FOTO DE ARCHIVO. Un modelo en miniatura impreso en 3D de Elon Musk y el logotipo de X en esta ilustración tomada el 23 de enero de 2025 (REUTERS/Dado Ruvic/Ilustración)

El Gobierno británico pidió este martes a Elon Musk y a su red social X que adopten medidas urgentes para frenar el uso de Grok, la herramienta de inteligencia artificial de la plataforma, tras la detección de deepfakes sexuales que involucraron a menores. El reclamo se produce en un contexto de creciente presión regulatoria sobre X y de cuestionamientos a la moderación de contenidos desde que el magnate asumió el control de la compañía.

La ministra británica de Tecnología, Liz Kendall, respaldó públicamente las advertencias del regulador de comunicaciones Ofcom, que el lunes expresó “serias preocupaciones” por una función de Grok que generaba “imágenes de personas con poca ropa e imágenes sexualizadas de niños”. Kendall afirmó que “lo que hemos visto en línea en los últimos días ha sido absolutamente espantoso e inaceptable en una sociedad decente” y advirtió que X debe abordar el problema “con urgencia”.

En su comunicado, la ministra subrayó que “nadie debería pasar por la experiencia de ver deepfakes íntimos suyos en internet” y sostuvo que el Gobierno no permitirá “la proliferación de estas imágenes humillantes y degradantes”, que, según indicó, afectan de manera desproporcionada a mujeres y niñas. Kendall reiteró su apoyo a Ofcom ante eventuales medidas coercitivas contra la plataforma.

La secretaria de Ciencia, Innovación
La secretaria de Ciencia, Innovación y Tecnología británica, Liz Kendall, gesticula mientras habla en el escenario de la conferencia anual del Partido Laborista británico en Liverpool, Gran Bretaña, el 29 de septiembre de 2025 (REUTERS/Hannah McKay)

X reconoció la existencia de casos problemáticos. En una publicación en la cuenta oficial de Grok, la empresa admitió que se habían detectado “casos aislados” en los que usuarios generaron imágenes de inteligencia artificial con “menores con escasa ropa” y aseguró que trabaja para bloquear por completo ese tipo de solicitudes. El propio Musk había advertido el domingo que cualquier usuario que emplee Grok para generar “contenido ilegal” afrontará las mismas consecuencias que si publicara material ilícito por otros medios, después de haber minimizado el problema en un primer momento.

El episodio se inscribe en la aplicación de la Online Safety Act británica, que tipifica como delitos el abuso de imágenes íntimas y el ciberexhibicionismo, incluso cuando se cometen mediante inteligencia artificial. La norma obliga a las plataformas a prevenir la publicación de este tipo de contenidos o a retirarlos con rapidez cuando aparecen.

Más allá del caso puntual de Grok, el reclamo británico se suma a una batería de cuestionamientos sobre el deterioro del ecosistema informativo y del debate público en X desde la llegada de Musk en 2022. Investigaciones citadas por Reuters, Financial Times y The New York Times han documentado recortes profundos en los equipos de confianza y seguridad, cambios en la aplicación de las normas internas y la reinstalación de cuentas que habían sido suspendidas por incitación al odio o desinformación.

Grok y la cuenta de
Grok y la cuenta de X de Elon Musk (Europa Press)

Organizaciones de la sociedad civil especializadas en el monitoreo del discurso digital, como el Center for Countering Digital Hate y la Anti-Defamation League, advirtieron sobre un aumento del lenguaje racista, antisemita y misógino en la plataforma tras los cambios introducidos desde la llegada de Musk. Aunque X ha rechazado esas conclusiones, The Economist ha señalado en análisis editoriales que la reducción de los controles de moderación y la apelación a una interpretación amplia de la “libertad de expresión” incrementaron la visibilidad de contenidos abusivos y extremos.

El problema no se limita al discurso de odio. Reportes de Reuters, BBC y The Wall Street Journal señalaron fallas persistentes en la detección y eliminación de material sexual no consentido, así como demoras en la respuesta a denuncias de usuarios. La expansión de herramientas de IA generativa, advierten expertos consultados por esos medios, ha elevado el riesgo de producción masiva de deepfakes sexuales, con un impacto particular sobre mujeres y menores.

En paralelo, X enfrenta una presión regulatoria creciente en otras jurisdicciones. La Comisión Europea abrió procedimientos formales bajo la Ley de Servicios Digitales (DSA) para evaluar el cumplimiento de la plataforma en materia de gestión de riesgos y transparencia, mientras que anunciantes y organizaciones civiles han reducido su presencia por temor a la asociación con contenido tóxico.

Para el Gobierno británico, el caso Grok actúa como un punto de inflexión. No se trata solo de un fallo técnico, sino de una señal de alerta sobre la gobernanza de una de las principales plazas del debate público digital, en un momento en que la inteligencia artificial amplifica tanto las oportunidades como los daños potenciales de las plataformas sociales.