La IA tiene sesgos al crear imágenes de mujeres, generando más estereotipos: esto dice un estudio

Los prompts en inglés ofrecen mayor diversidad visual que en español

Guardar
Las imágenes generadas por IA
Las imágenes generadas por IA muestran una sobrerrepresentación de mujeres jóvenes, delgadas y de piel clara, limitando la diversidad racial y fenotípica. (Imagen Ilustrativa Infobae)

Un reciente estudio académico ha puesto en evidencia cómo las herramientas de inteligencia artificial generativa reproducen estereotipos de género y limitan la diversidad en la creación de imágenes femeninas.

El análisis, liderado por profesoras de la Universidad Europea, revela que la IA, lejos de romper con los viejos patrones, consolida un ideal homogéneo: juventud, delgadez y piel clara dominan la representación visual de las mujeres en contextos publicitarios.

El equipo investigador diseñó un experimento para observar el comportamiento de cuatro sistemas de IA generativa: Copilot, Leonardo, Firefly y Midjourney.

Se utilizaron treinta y seis descripciones textuales (prompts) en inglés y español, que cubrían tres edades (20, 40 y 60 años) y dos tipos de caracterización: descripciones neutras y otras con calificativos habituales de la industria publicitaria, como “supermodelo”, “muy guapa”, “belleza real” o “muy fea”.

El estudio sobre inteligencia artificial
El estudio sobre inteligencia artificial generativa revela que los sistemas como Copilot, Leonardo, Firefly y Midjourney reproducen estereotipos de género en imágenes publicitarias. (REUTERS/Dado Ruvic/Ilustración)

Cada modelo generó entre quince y diecisiete retratos por prompt, sumando un total de 359 imágenes. El análisis se apoyó en un libro de códigos que permitió clasificar variables como raza, color y tipo de cabello, morfología facial, emotividad, complexión corporal y estilo visual.

De esta manera, los investigadores obtuvieron una visión comparativa de los patrones físicos y estéticos más recurrentes, así como del impacto del idioma en la diversidad de las imágenes producidas.

Los estereotipos que la IA genera de las mujeres

La principal conclusión del estudio es contundente: las imágenes generadas por IA presentan una clara sobrerrepresentación de mujeres caucásicas, jóvenes y delgadas. La pluralidad racial y fenotípica aparece fuertemente limitada. Incluso cuando los prompts solicitaban diversidad, las herramientas tendieron a ofrecer rostros con piel clara y rasgos europeos.

Mientras que Firefly mostró cierta amplitud racial en inglés, incluyendo mujeres negras y latinas, en español volvió a predominar el modelo monocultural. Midjourney aportó ligeras variaciones fenotípicas, pero sin equilibrio entre distintos grupos.

Descriptores como 'supermodelo' y 'muy
Descriptores como 'supermodelo' y 'muy guapa' intensifican el sesgo visual, asociando la belleza femenina a ventajas sociales y económicas en la IA generativa. (Imagen ilustrativa Infobae)

Por el contrario, Leonardo reflejó el mayor nivel de homogeneización, con resultados casi idénticos y un predominio casi absoluto de mujeres blancas.

El idioma del prompt resultó determinante: los corpus mayoritariamente anglófonos permiten obtener retratos más variados en inglés que en español, donde los estereotipos se acentúan. Así, el idioma se convierte en un factor que condiciona la diversidad visual y refuerza la asimetría en la representación de género y raza.

La investigación detectó también que la complexión corporal es uno de los puntos más problemáticos. Las plataformas perpetuaron torsos delgados y estilizados, reduciendo la diversidad física y la autenticidad de los retratos.

Los descriptores como “supermodelo” intensificaron la visión hipersexualizada y poco inclusiva: la ausencia de cuerpos robustos, de mayor volumen o con diferentes distribuciones de peso evidencia una limitación estructural en los modelos de IA.

En contextos donde la publicidad ha avanzado hacia la visibilización de la diversidad corporal la incapacidad de la inteligencia artificial generativa para plasmar esa pluralidad supone un retroceso real. Lejos de contribuir a la inclusión, los modelos analizados refuerzan un estándar que ignora la realidad física de la mayoría de las audiencias.

La falta de cuerpos diversos
La falta de cuerpos diversos y la perpetuación del canon delgado en imágenes de inteligencia artificial contradicen los avances de la publicidad hacia la inclusión. (Imagen Ilustrativa Infobae)

Por qué esta práctica de la IA generativa puede ser un problema

El estudio destaca la influencia de los sistemas de moderación automática en los resultados. Prompts como “muy fea” activaron mecanismos de filtrado en Copilot y Firefly, que bloquearon la generación de imágenes consideradas potencialmente ofensivas.

Si bien estos filtros buscan evitar discursos discriminadores, también limitan la capacidad crítica para analizar cómo la tecnología gestiona conceptos subjetivos y complejos.

Por otro lado, los calificativos subjetivos empleados en la publicidad –como “muy guapa” o “supermodelo”– intensifican el sesgo al asociar la belleza con ventajas sociales y económicas, perpetuando la hiperritualización de la feminidad y la erotización del cuerpo femenino.

Así, la inteligencia artificial no solo reproduce, sino que amplifica los guiones y roles tradicionales heredados de la publicidad convencional.

La profesora Esmeralda López subraya la necesidad de “construir imágenes que desafíen los estereotipos y conecten emocionalmente con audiencias diversas, mostrando una pluralidad que hasta ahora ha sido ignorada”. Por su parte, Begoña Moreno indica que es “fundamental que las herramientas de IA incluyan datos más diversos para construir representaciones más inclusivas”.