Así bloquean Google y OpenAi la creación de imágenes prohibidas tras la crisis de Grok

Tras el escándalo de la plataforma de Elon Musk, las grandes tecnológicas revisan y endurecen sus mecanismos para combatir la generación y difusión de material sexual no consentido con IA

La mejora constante de los sistemas de moderación de Google y OpenAI busca evitar que la inteligencia artificial se utilice para abuso o acoso. (Imagen Ilustrativa Infobae)

Una oleada de imágenes sexualizadas generadas con inteligencia artificial en la plataforma Grok, de xAI, expuso graves vulnerabilidades en los sistemas de protección digital y obligó a empresas como OpenAI y Google a redoblar sus medidas de seguridad para evitar abusos similares.

El episodio, ocurrido en enero de 2026, encendió las alarmas en el sector tecnológico y llevó a una revisión profunda de los protocolos de control para la creación de imágenes por IA.

El caso Grok: antecedentes y el impacto de la inteligencia artificial en la generación de contenido

Entre el 1 y el 11 de enero de 2026, la herramienta Grok, desarrollada por la compañía xAI de Elon Musk, fue utilizada para crear más de 3 millones de imágenes sexualizadas, incluyendo aproximadamente 23.000 archivos con representaciones de menores, según un informe del Center for Countering Digital Hate. La capacidad de edición de imágenes de Grok en la red social X (antes Twitter) quedó suspendida el 14 de enero, luego de la presión pública y la exposición mediática del escándalo.

Read more!

La utilización de inteligencia artificial para producir imágenes íntimas sin consentimiento, fenómeno conocido como “deepfake porn” o pornografía no consensuada, representa una amenaza creciente para la privacidad y la seguridad de los usuarios.

Grok, la IA de xAI, generó millones de imágenes sexualizadas en pocos días, lo que impulsó cambios en la industria. (Reuters)

Antes de la llegada de estas herramientas, la creación y difusión de este tipo de contenido ya constituía un problema grave. La IA ha facilitado el acceso y la velocidad con que este tipo de ataques puede ejecutarse, dificultando la protección y la reparación para las víctimas.

Estrategias de OpenAI: blindaje de modelos y colaboración con investigadores

OpenAI, responsable de sistemas como ChatGPT y el generador de imágenes DALL-E, mantiene políticas estrictas que prohíben la creación de contenido ilegal, incluidas imágenes íntimas no autorizadas y material de abuso sexual infantil. Pese a estos controles, investigadores de la firma británica Mindgard detectaron una vulnerabilidad en ChatGPT que permitía eludir estas restricciones mediante técnicas de “adversarial prompting” o indicaciones diseñadas para engañar al modelo.

El 10 de febrero de 2026, OpenAI confirmó que la falla había sido corregida antes de la publicación del informe. “Estamos agradecidos por los investigadores que compartieron sus hallazgos. Reforzamos rápidamente un error que permitía la generación de estas imágenes”, manifestó un portavoz de la empresa en declaraciones recogidas por CNET. La compañía señaló que colabora de forma constante con equipos externos de seguridad para identificar y corregir posibles puntos débiles en sus sistemas.

El proceso de protección se apoya en la vigilancia activa de los modelos, la actualización de los filtros de moderación y la incorporación de repertorios de indicaciones que serán rechazadas automáticamente. Al presentar su herramienta de video Sora 2, OpenAI prometió controles más conservadores y una moderación de contenido más exigente, aunque la empresa reconoce que la seguridad debe evaluarse y actualizarse de manera permanente.

OpenAI reforzó sus filtros tras detectar una vulnerabilidad que permitía crear imágenes íntimas con ChatGPT. (Reuters)

“Suponer que los usuarios no intentarán burlar las barreras de seguridad es un error estratégico. Los atacantes perseveran. Los sistemas de protección deben anticipar esa persistencia”, advirtió Mindgard en su blog.

Google: mejoras en la eliminación de imágenes y políticas de uso

Google, por su parte, abordó el problema desde la perspectiva de la difusión y la eliminación de contenido. El gigante tecnológico anunció la simplificación del proceso para solicitar la remoción de imágenes explícitas en su buscador. Ahora, los usuarios pueden reportar múltiples imágenes simultáneamente y hacer seguimiento de sus solicitudes. Basta con pulsar el menú de opciones sobre la imagen y elegir la categoría “muestra una imagen sexual de mí” para iniciar el trámite.

La política de uso de Google prohíbe la utilización de sus herramientas de IA para actividades ilegales o potencialmente abusivas, incluidas la creación y difusión de imágenes íntimas sin consentimiento. Ante consultas de CNET, la compañía reiteró su compromiso con la protección de los usuarios y la implementación de barreras contra el uso ilícito de la inteligencia artificial.

La función de reporte de Google facilita la eliminación de imágenes sexualizadas no consentidas desde el buscador. (Google)

Además, distintas asociaciones civiles y organismos de defensa de los derechos digitales han reclamado el fortalecimiento de la legislación para amparar a las víctimas. En Estados Unidos, la Take It Down Act de 2025 busca dar respuesta a la proliferación de contenidos íntimos en línea, aunque su alcance aún es limitado.

El desafío para OpenAI, Google y otras empresas tecnológicas radica en mantener la vigilancia constante sobre sus sistemas y reaccionar con rapidez ante cualquier falla para evitar episodios similares al de Grok, minimizando los riesgos inherentes al avance de la inteligencia artificial en la generación de imágenes.

Read more!