Grok, la IA de Elon Musk, en el foco internacional por deepfakes íntimos sin consentimiento, incluso de menores

La polémica estalló tras la difusión de miles de imágenes sexualizadas de adultos y menores, poniendo en evidencia la ausencia de filtros efectivos por parte de la plataforma

Guardar
El escándalo de Grok y
El escándalo de Grok y los deepfakes desató alarmas globales por la falta de controles en IA - (Composición)

La inteligencia artificial Grok, desarrollada por xAI, empresa de Elon Musk, se encuentra en el centro de la polémica internacional tras la difusión masiva de deepfakes sexuales generados sin consentimiento, incluyendo imágenes manipuladas de menores de edad.

El caso ha generado preocupación por la falta de controles efectivos en la tecnología y ha provocado investigaciones, bloqueos y debates regulatorios en distintas partes del mundo.

Cómo empezó la controversia con la IA de Elon Musk

El lanzamiento de Grok en noviembre de 2023 fue presentado como un avance disruptivo en el sector de la IA conversacional. xAI promocionó al chatbot por su “vena rebelde” y su supuesta capacidad para responder preguntas que otros sistemas rechazaban, con acceso en tiempo real a la plataforma X (antes Twitter).

Así responde el mundo al
Así responde el mundo al caso Grok: bloqueos, leyes y presión sobre la seguridad de la inteligencia artificial - REUTERS/Dado Ruvic/Illustration/File Photo

Sin embargo, expertos y organizaciones comenzaron a advertir sobre los riesgos de dotar a un chatbot de acceso a Internet y redes sociales sin mecanismos sólidos de seguridad.

La situación se agravó recientemente, cuando usuarios comenzaron a reportar que Grok,, podía generar imágenes sexualizadas de figuras públicas y personas comunes, incluso de menores, a través de un botón de “editar” que permite modificar fotografías sin el consentimiento de los protagonistas.

Cuestionamientos y advertencias a la IA de Musk

La reacción internacional no se hizo esperar. Gobiernos de países como Francia, India, Malasia, Indonesia, Reino Unido y Estados Unidos han anunciado investigaciones o acciones regulatorias.

Algunas jurisdicciones ya bloquearon el acceso a Grok, mientras otras amenazan con prohibir el uso de X o de la propia IA si no se implementan controles efectivos para frenar la generación y difusión de deepfakes íntimos.

El secreto para frenar los
El secreto para frenar los abusos de la IA está en la regulación y la transparencia tecnológica - (Imagen Ilustrativa Infobae)

En Reino Unido, el regulador de comunicaciones advirtió que investigará si X y Grok violan la Ley de Seguridad en Línea, mientras que en Estados Unidos se discuten cambios legislativos para ampliar la protección ante imágenes sintéticas de menores generadas por IA, un área donde la normativa aún presenta vacíos legales.

Frente a la presión pública y regulatoria, X comunicó la implementación de nuevas restricciones: la edición de imágenes de personas reales en ropa reveladora, como bikinis, quedó bloqueada; solo los usuarios de pago pueden generar o modificar imágenes mediante Grok; y se aplicó un bloqueo geográfico en jurisdicciones donde es ilegal crear contenido sexualizado de personas reales.

No obstante, pruebas realizadas por periodistas demostraron que estas barreras resultan insuficientes y fáciles de eludir, permitiendo la generación de imágenes sugestivas con simples cambios en la solicitud.

La falta de controles efectivos y la rapidez con la que el contenido se viraliza han dejado expuestas a miles de víctimas: solo en un análisis de 24 horas, se estimó que Grok generó alrededor de 6.700 imágenes sexualmente sugerentes o de “desnudez” por hora, lo que ha incrementado la presión sobre Musk y su equipo de seguridad.

¿Qué hacer si eres víctima de un deepfake?

Gobiernos y organizaciones impulsan normativas
Gobiernos y organizaciones impulsan normativas más estrictas y denuncias ante la incapacidad de Grok para evitar la difusión masiva de deepfakes, exigiendo responsabilidad y sistemas de protección efectivos en la generación de contenido sintético - (Imagen Ilustrativa Infobae)

Para quienes se vean afectados por la difusión de deepfakes íntimos generados por IA, existen varias vías de acción:

  • Denunciar en la plataforma de origen: Utiliza las herramientas de reporte de la red social donde se publicó la imagen para solicitar su eliminación inmediata.
  • Solicitar la eliminación en buscadores: Google, por ejemplo, permite pedir la eliminación de enlaces a imágenes íntimas no consentidas.
  • Reportar a la herramienta de IA: Si se sabe cuál fue la plataforma de generación, contacta a sus responsables, ya que suelen tener políticas contra la difusión de este tipo de contenido.
  • Recurrir a la vía legal: En muchos países, la creación y difusión de pornografía sintética sin consentimiento es un delito. Conserva pruebas y contacta a las autoridades.
  • Utilizar herramientas de apoyo a víctimas: Plataformas como StopNCII.org ayudan a bloquear la difusión de imágenes íntimas no consentidas en redes sociales.

El caso Grok ha abierto un debate urgente sobre la necesidad de regulación, transparencia y controles efectivos en la inteligencia artificial. La presión internacional obligará a las plataformas a reforzar sus sistemas de seguridad y a asumir responsabilidades claras para evitar el daño a personas reales, especialmente a menores, en el ecosistema digital. El desafío no es solo técnico, también ético y social, y marcará el rumbo de la IA generativa en los próximos años.