
El regulador británico Ofcom abrió una investigación formal contra X, la red social propiedad de Elon Musk, por el uso de su chatbot de inteligencia artificial Grok para crear y difundir imágenes íntimas ilegales y no consentidas.
La medida se enmarca en la Ley de Seguridad en Línea del Reino Unido y podría derivar en sanciones económicas millonarias si se determina que la plataforma incumplió sus obligaciones legales para proteger a los usuarios, especialmente a menores de edad.
La investigación se anuncia tras una ola de denuncias por la generación masiva de imágenes sexualizadas mediante Grok, incluyendo desnudos de mujeres creados sin su consentimiento. A comienzos de año, usuarios de X comenzaron a compartir capturas y resultados del chatbot en los que se mostraba cómo la herramienta accedía a solicitudes para “desnudar” a mujeres o presentarlas en bikini o lencería. El volumen fue tal que, según estimaciones difundidas en redes, se llegaron a generar hasta 6.700 imágenes por hora en los primeros días.

Ante la magnitud del fenómeno y el impacto negativo generado, X optó por limitar la edición de imágenes con Grok exclusivamente a usuarios de pago. Sin embargo, la medida no fue suficiente para frenar las preocupaciones de los reguladores, que consideran que la plataforma pudo haber permitido la circulación de contenido ilegal durante un periodo significativo.
En un comunicado, un portavoz de Ofcom calificó las denuncias como “profundamente preocupantes” y advirtió que el uso de Grok para crear y compartir imágenes íntimas no consentidas, así como posible material de abuso sexual infantil, representa un riesgo grave.
“Las plataformas deben proteger a los ciudadanos del Reino Unido del contenido ilegal y no dudaremos en investigar si sospechamos que las empresas incumplen sus obligaciones, especialmente cuando existe riesgo de daño a menores”, señaló el organismo.
El regulador explicó que el pasado 5 de enero se puso en contacto con X para exigir explicaciones sobre las medidas adoptadas para cumplir con la ley, estableciendo como fecha límite el 9 de enero. La compañía respondió dentro del plazo, lo que llevó a Ofcom a realizar una “evaluación acelerada” de la información presentada. Tras ese análisis preliminar, el organismo decidió avanzar hacia una investigación formal para determinar si existió una infracción de la Ley de Seguridad en Línea.
Si se concluye que X no cumplió con sus obligaciones legales, Ofcom tiene la facultad de imponer sanciones que incluyen multas de hasta 20 millones de euros o el 10% de los ingresos globales de la empresa, lo que resulte mayor. En escenarios considerados especialmente graves, el regulador también puede solicitar a un tribunal medidas que interrumpan parcial o totalmente la actividad de la compañía en el país.
La Ley de Seguridad en Línea otorga a Ofcom la responsabilidad de evaluar si las plataformas digitales han tomado medidas adecuadas para proteger a los usuarios frente a contenido ilegal. El proceso contempla la recopilación y análisis de pruebas, la emisión de una decisión provisional y la posibilidad de que la empresa investigada responda antes de que se adopte una resolución final.

El caso de Reino Unido no es aislado. Malasia también anunció que iniciará acciones legales contra X por el funcionamiento de Grok. Según informó la agencia EFE, la Comisión de Comunicaciones y Multimedia de ese país ya designó abogados y prevé iniciar los procedimientos judiciales en breve, tras detectar el “uso indebido” del chatbot para generar y difundir contenido dañino, incluidas imágenes obscenas y sexualmente explícitas creadas sin consentimiento.
Las autoridades malasias indicaron que el contenido generado por Grok fue considerado indecente, extremadamente ofensivo y manipulador, lo que motivó la decisión de avanzar por la vía legal. Con esta postura, Malasia se suma a otros países que revisan el impacto y los riesgos de la herramienta de inteligencia artificial, entre ellos Francia, Reino Unido e Indonesia.
La polémica vuelve a poner en el centro del debate los límites de la inteligencia artificial generativa y la responsabilidad de las plataformas que la integran. En el caso de Grok, diseñado para interactuar de forma directa con los usuarios de X, las críticas apuntan a una falta de controles efectivos en las primeras etapas de su despliegue.

Mientras avanza la investigación, X enfrenta un escenario complejo en el que confluyen presión regulatoria, cuestionamientos éticos y el escrutinio público sobre el uso de la IA. El resultado del proceso en Reino Unido podría sentar un precedente relevante para la regulación de herramientas de inteligencia artificial y el rol de las grandes plataformas tecnológicas en la prevención de abusos digitales.
Últimas Noticias
Los trabajos rutinarios, en la cuerda floja por la inteligencia artificial
Una revolución tecnológica está cambiando el mapa del empleo y plantea nuevas preguntas sobre el valor personal en el trabajo
Verificación de edad con IA de Roblox genera críticas: los adultos se hacen pasar por niños
La expansión del sistema ha creado un mercado ilegal de cuentas, fuerte rechazo en la comunidad y dudas sobre la gestión de datos personales

Apple y la pesadilla de un prototipo perdido: cómo casi se filtra el primer iPhone antes de su lanzamiento
El hallazgo del dispositivo a tiempo evitó una crisis global y subrayó la importancia de la disciplina interna, en una compañía donde la confidencialidad ha sido clave para el impacto de sus lanzamientos

Para qué sirve el puerto USB del router y qué dispositivos puedes conectar
Muchos modelos incluyen este puerto, aunque la mayoría de usuarios no aprovecha sus beneficios

Qué tan recomendable es usar el mismo cargador para todos los dispositivos: la batería estaría en riesgo
La estandarización del USB-C crea una falsa sensación de compatibilidad universal




