
Una oleada de imágenes sexualizadas generadas con inteligencia artificial en la plataforma Grok, de xAI, expuso graves vulnerabilidades en los sistemas de protección digital y obligó a empresas como OpenAI y Google a redoblar sus medidas de seguridad para evitar abusos similares.
El episodio, ocurrido en enero de 2026, encendió las alarmas en el sector tecnológico y llevó a una revisión profunda de los protocolos de control para la creación de imágenes por IA.
El caso Grok: antecedentes y el impacto de la inteligencia artificial en la generación de contenido
Entre el 1 y el 11 de enero de 2026, la herramienta Grok, desarrollada por la compañía xAI de Elon Musk, fue utilizada para crear más de 3 millones de imágenes sexualizadas, incluyendo aproximadamente 23.000 archivos con representaciones de menores, según un informe del Center for Countering Digital Hate. La capacidad de edición de imágenes de Grok en la red social X (antes Twitter) quedó suspendida el 14 de enero, luego de la presión pública y la exposición mediática del escándalo.
La utilización de inteligencia artificial para producir imágenes íntimas sin consentimiento, fenómeno conocido como “deepfake porn” o pornografía no consensuada, representa una amenaza creciente para la privacidad y la seguridad de los usuarios.
Antes de la llegada de estas herramientas, la creación y difusión de este tipo de contenido ya constituía un problema grave. La IA ha facilitado el acceso y la velocidad con que este tipo de ataques puede ejecutarse, dificultando la protección y la reparación para las víctimas.
Estrategias de OpenAI: blindaje de modelos y colaboración con investigadores
OpenAI, responsable de sistemas como ChatGPT y el generador de imágenes DALL-E, mantiene políticas estrictas que prohíben la creación de contenido ilegal, incluidas imágenes íntimas no autorizadas y material de abuso sexual infantil. Pese a estos controles, investigadores de la firma británica Mindgard detectaron una vulnerabilidad en ChatGPT que permitía eludir estas restricciones mediante técnicas de “adversarial prompting” o indicaciones diseñadas para engañar al modelo.
El 10 de febrero de 2026, OpenAI confirmó que la falla había sido corregida antes de la publicación del informe. “Estamos agradecidos por los investigadores que compartieron sus hallazgos. Reforzamos rápidamente un error que permitía la generación de estas imágenes”, manifestó un portavoz de la empresa en declaraciones recogidas por CNET. La compañía señaló que colabora de forma constante con equipos externos de seguridad para identificar y corregir posibles puntos débiles en sus sistemas.
El proceso de protección se apoya en la vigilancia activa de los modelos, la actualización de los filtros de moderación y la incorporación de repertorios de indicaciones que serán rechazadas automáticamente. Al presentar su herramienta de video Sora 2, OpenAI prometió controles más conservadores y una moderación de contenido más exigente, aunque la empresa reconoce que la seguridad debe evaluarse y actualizarse de manera permanente.
“Suponer que los usuarios no intentarán burlar las barreras de seguridad es un error estratégico. Los atacantes perseveran. Los sistemas de protección deben anticipar esa persistencia”, advirtió Mindgard en su blog.
Google: mejoras en la eliminación de imágenes y políticas de uso
Google, por su parte, abordó el problema desde la perspectiva de la difusión y la eliminación de contenido. El gigante tecnológico anunció la simplificación del proceso para solicitar la remoción de imágenes explícitas en su buscador. Ahora, los usuarios pueden reportar múltiples imágenes simultáneamente y hacer seguimiento de sus solicitudes. Basta con pulsar el menú de opciones sobre la imagen y elegir la categoría “muestra una imagen sexual de mí” para iniciar el trámite.
La política de uso de Google prohíbe la utilización de sus herramientas de IA para actividades ilegales o potencialmente abusivas, incluidas la creación y difusión de imágenes íntimas sin consentimiento. Ante consultas de CNET, la compañía reiteró su compromiso con la protección de los usuarios y la implementación de barreras contra el uso ilícito de la inteligencia artificial.

Además, distintas asociaciones civiles y organismos de defensa de los derechos digitales han reclamado el fortalecimiento de la legislación para amparar a las víctimas. En Estados Unidos, la Take It Down Act de 2025 busca dar respuesta a la proliferación de contenidos íntimos en línea, aunque su alcance aún es limitado.
El desafío para OpenAI, Google y otras empresas tecnológicas radica en mantener la vigilancia constante sobre sus sistemas y reaccionar con rapidez ante cualquier falla para evitar episodios similares al de Grok, minimizando los riesgos inherentes al avance de la inteligencia artificial en la generación de imágenes.
Últimas Noticias
Adiós al recalentamiento de los dispositivos: desarrollan una capa de diamante que reduce 23 °C de temperatura
El avance facilita el desarrollo de aparatos electrónicos más confiables, sostenibles y aptos para soportar cargas de trabajo cada vez más grandes

Pagos digitales en Meta: la empresa evalúa integrar stablecoins después del revés de Libra
Stripe aparece como uno de los candidatos más probables para liderar el piloto de la nueva cartera digital de Meta
Anthropic desafía al Pentágono y rechaza relajar límites para uso militar de su IA
La startup de inteligencia artificial fue advertida de que, si no accedía a las exigencias, podría ser considerada un riesgo para la cadena de suministro

Hacker usa la IA Claude para robar datos de agencias de gobierno en México
El uso avanzado de la plataforma de Anthropic permitió a un atacante sortear filtros, automatizar scripts y extraer millones de registros confidenciales de organismos oficiales

Alguien te bloqueó en WhatsApp y no lo sabes: sigue estos pasos para averiguarlo
La integración de opciones avanzadas en los ajustes de privacidad y la verificación del cifrado facilitan restringir o restaurar contactos



