
Una oleada de imágenes sexualizadas generadas con inteligencia artificial en la plataforma Grok, de xAI, expuso graves vulnerabilidades en los sistemas de protección digital y obligó a empresas como OpenAI y Google a redoblar sus medidas de seguridad para evitar abusos similares.
El episodio, ocurrido en enero de 2026, encendió las alarmas en el sector tecnológico y llevó a una revisión profunda de los protocolos de control para la creación de imágenes por IA.
PUBLICIDAD
El caso Grok: antecedentes y el impacto de la inteligencia artificial en la generación de contenido
Entre el 1 y el 11 de enero de 2026, la herramienta Grok, desarrollada por la compañía xAI de Elon Musk, fue utilizada para crear más de 3 millones de imágenes sexualizadas, incluyendo aproximadamente 23.000 archivos con representaciones de menores, según un informe del Center for Countering Digital Hate. La capacidad de edición de imágenes de Grok en la red social X (antes Twitter) quedó suspendida el 14 de enero, luego de la presión pública y la exposición mediática del escándalo.
La utilización de inteligencia artificial para producir imágenes íntimas sin consentimiento, fenómeno conocido como “deepfake porn” o pornografía no consensuada, representa una amenaza creciente para la privacidad y la seguridad de los usuarios.
PUBLICIDAD
Antes de la llegada de estas herramientas, la creación y difusión de este tipo de contenido ya constituía un problema grave. La IA ha facilitado el acceso y la velocidad con que este tipo de ataques puede ejecutarse, dificultando la protección y la reparación para las víctimas.
Estrategias de OpenAI: blindaje de modelos y colaboración con investigadores
OpenAI, responsable de sistemas como ChatGPT y el generador de imágenes DALL-E, mantiene políticas estrictas que prohíben la creación de contenido ilegal, incluidas imágenes íntimas no autorizadas y material de abuso sexual infantil. Pese a estos controles, investigadores de la firma británica Mindgard detectaron una vulnerabilidad en ChatGPT que permitía eludir estas restricciones mediante técnicas de “adversarial prompting” o indicaciones diseñadas para engañar al modelo.
PUBLICIDAD
El 10 de febrero de 2026, OpenAI confirmó que la falla había sido corregida antes de la publicación del informe. “Estamos agradecidos por los investigadores que compartieron sus hallazgos. Reforzamos rápidamente un error que permitía la generación de estas imágenes”, manifestó un portavoz de la empresa en declaraciones recogidas por CNET. La compañía señaló que colabora de forma constante con equipos externos de seguridad para identificar y corregir posibles puntos débiles en sus sistemas.
El proceso de protección se apoya en la vigilancia activa de los modelos, la actualización de los filtros de moderación y la incorporación de repertorios de indicaciones que serán rechazadas automáticamente. Al presentar su herramienta de video Sora 2, OpenAI prometió controles más conservadores y una moderación de contenido más exigente, aunque la empresa reconoce que la seguridad debe evaluarse y actualizarse de manera permanente.
PUBLICIDAD
“Suponer que los usuarios no intentarán burlar las barreras de seguridad es un error estratégico. Los atacantes perseveran. Los sistemas de protección deben anticipar esa persistencia”, advirtió Mindgard en su blog.
Google: mejoras en la eliminación de imágenes y políticas de uso
Google, por su parte, abordó el problema desde la perspectiva de la difusión y la eliminación de contenido. El gigante tecnológico anunció la simplificación del proceso para solicitar la remoción de imágenes explícitas en su buscador. Ahora, los usuarios pueden reportar múltiples imágenes simultáneamente y hacer seguimiento de sus solicitudes. Basta con pulsar el menú de opciones sobre la imagen y elegir la categoría “muestra una imagen sexual de mí” para iniciar el trámite.
PUBLICIDAD
La política de uso de Google prohíbe la utilización de sus herramientas de IA para actividades ilegales o potencialmente abusivas, incluidas la creación y difusión de imágenes íntimas sin consentimiento. Ante consultas de CNET, la compañía reiteró su compromiso con la protección de los usuarios y la implementación de barreras contra el uso ilícito de la inteligencia artificial.

Además, distintas asociaciones civiles y organismos de defensa de los derechos digitales han reclamado el fortalecimiento de la legislación para amparar a las víctimas. En Estados Unidos, la Take It Down Act de 2025 busca dar respuesta a la proliferación de contenidos íntimos en línea, aunque su alcance aún es limitado.
PUBLICIDAD
El desafío para OpenAI, Google y otras empresas tecnológicas radica en mantener la vigilancia constante sobre sus sistemas y reaccionar con rapidez ante cualquier falla para evitar episodios similares al de Grok, minimizando los riesgos inherentes al avance de la inteligencia artificial en la generación de imágenes.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Cómo funciona el mercado de criptomonedas y cuál es su valor este 1 de mayo
El bitcoin, una de las principales criptomonedas, registra un precio de 77.371,79 dólares

Qué significa la letra “D” y por qué no existe en los autos manuales
En los vehículos automáticos, la palanca de cambios opera con un sistema de letras conocido como PRND

Google lanza Fuentes Preferidas para que elijas tú qué noticias ver y cuáles no
La herramienta ya está activa a nivel global en todos los idiomas compatibles y marca un cambio en la forma en que la plataforma distribuye la información noticiosa

Así puedes desactivar la inteligencia artificial en tu Galaxy
El control sobre la inteligencia artificial se adapta a las necesidades y preferencias de cada usuario

La IA no mejora la atención al cliente sola: el factor que las empresas están ignorando
Un modelo de IA puede ser técnicamente sofisticado y aun así producir respuestas genéricas, inconsistentes o poco útiles si no fue entrenado con información relevante


