
Un reciente estudio académico ha puesto en evidencia cómo las herramientas de inteligencia artificial generativa reproducen estereotipos de género y limitan la diversidad en la creación de imágenes femeninas.
El análisis, liderado por profesoras de la Universidad Europea, revela que la IA, lejos de romper con los viejos patrones, consolida un ideal homogéneo: juventud, delgadez y piel clara dominan la representación visual de las mujeres en contextos publicitarios.
El equipo investigador diseñó un experimento para observar el comportamiento de cuatro sistemas de IA generativa: Copilot, Leonardo, Firefly y Midjourney.
Se utilizaron treinta y seis descripciones textuales (prompts) en inglés y español, que cubrían tres edades (20, 40 y 60 años) y dos tipos de caracterización: descripciones neutras y otras con calificativos habituales de la industria publicitaria, como “supermodelo”, “muy guapa”, “belleza real” o “muy fea”.
Cada modelo generó entre quince y diecisiete retratos por prompt, sumando un total de 359 imágenes. El análisis se apoyó en un libro de códigos que permitió clasificar variables como raza, color y tipo de cabello, morfología facial, emotividad, complexión corporal y estilo visual.
De esta manera, los investigadores obtuvieron una visión comparativa de los patrones físicos y estéticos más recurrentes, así como del impacto del idioma en la diversidad de las imágenes producidas.
Los estereotipos que la IA genera de las mujeres
La principal conclusión del estudio es contundente: las imágenes generadas por IA presentan una clara sobrerrepresentación de mujeres caucásicas, jóvenes y delgadas. La pluralidad racial y fenotípica aparece fuertemente limitada. Incluso cuando los prompts solicitaban diversidad, las herramientas tendieron a ofrecer rostros con piel clara y rasgos europeos.
Mientras que Firefly mostró cierta amplitud racial en inglés, incluyendo mujeres negras y latinas, en español volvió a predominar el modelo monocultural. Midjourney aportó ligeras variaciones fenotípicas, pero sin equilibrio entre distintos grupos.

Por el contrario, Leonardo reflejó el mayor nivel de homogeneización, con resultados casi idénticos y un predominio casi absoluto de mujeres blancas.
El idioma del prompt resultó determinante: los corpus mayoritariamente anglófonos permiten obtener retratos más variados en inglés que en español, donde los estereotipos se acentúan. Así, el idioma se convierte en un factor que condiciona la diversidad visual y refuerza la asimetría en la representación de género y raza.
La investigación detectó también que la complexión corporal es uno de los puntos más problemáticos. Las plataformas perpetuaron torsos delgados y estilizados, reduciendo la diversidad física y la autenticidad de los retratos.
Los descriptores como “supermodelo” intensificaron la visión hipersexualizada y poco inclusiva: la ausencia de cuerpos robustos, de mayor volumen o con diferentes distribuciones de peso evidencia una limitación estructural en los modelos de IA.
En contextos donde la publicidad ha avanzado hacia la visibilización de la diversidad corporal la incapacidad de la inteligencia artificial generativa para plasmar esa pluralidad supone un retroceso real. Lejos de contribuir a la inclusión, los modelos analizados refuerzan un estándar que ignora la realidad física de la mayoría de las audiencias.

Por qué esta práctica de la IA generativa puede ser un problema
El estudio destaca la influencia de los sistemas de moderación automática en los resultados. Prompts como “muy fea” activaron mecanismos de filtrado en Copilot y Firefly, que bloquearon la generación de imágenes consideradas potencialmente ofensivas.
Si bien estos filtros buscan evitar discursos discriminadores, también limitan la capacidad crítica para analizar cómo la tecnología gestiona conceptos subjetivos y complejos.
Por otro lado, los calificativos subjetivos empleados en la publicidad –como “muy guapa” o “supermodelo”– intensifican el sesgo al asociar la belleza con ventajas sociales y económicas, perpetuando la hiperritualización de la feminidad y la erotización del cuerpo femenino.
Así, la inteligencia artificial no solo reproduce, sino que amplifica los guiones y roles tradicionales heredados de la publicidad convencional.
La profesora Esmeralda López subraya la necesidad de “construir imágenes que desafíen los estereotipos y conecten emocionalmente con audiencias diversas, mostrando una pluralidad que hasta ahora ha sido ignorada”. Por su parte, Begoña Moreno indica que es “fundamental que las herramientas de IA incluyan datos más diversos para construir representaciones más inclusivas”.
Últimas Noticias
Usuarios de ChatGPT desinstalan la app por acuerdo de OpenAI con el Pentágono
La polémica colaboración con el Departamento de Defensa generó un rechazo masivo encendió el debate sobre ética y tecnología
Cómo transformar tu WhatsApp con el modo ‘vuelta al cole’ en solo unos pasos
El primer paso consiste en elegir o crear una imagen en formato PNG, que represente el inicio del ciclo lectivo

Ni Xuper TV ni Magis TV: estas son las plataformas gratuitas y legales que deberías probar
El cierre de los populares servicios ilegales impulsó la búsqueda de alternativas que ofrecen acceso seguro a contenidos sin arriesgar datos personales ni dispositivos

Dos inteligencias artificiales abandonan el idioma humano y se entienden por sonidos
Las IA se identificaron entre sí y eligieron comunicarse por señales de sonido para intercambiar datos de forma más rápida y eficiente

Google Cloud descubre que más de la mitad de las instituciones financieras mexicanas no puede abrir cuentas digitalmente
La ausencia de asistentes virtuales y las frecuentes fallas técnicas merman la confianza en los servicios en línea


