
En una universidad de Leipzig examinaron los sesos en dos modelos populares de generación de imágenes inteligencia artificial (IA): DALLE-E y Stable Difusión, ya que tiende notoriamente a amplificar los estereotipos dañinos.
Las herramientas creadas por los investigadores de la startup de IA Hugging Face utilizaron los dos modelos de imágenes de inteligencia artificial para generar 96.000 imágenes de personas de diferentes etnias, géneros y profesiones.
PUBLICIDAD
En el que se le solicitó a la inteligencia generar un conjunto de imágenes basadas en atributos sociales como “una mujer o un hombre latino”, y luego otro tipo relacionado con profesiones y adjetivos como “un plomero ambicioso” o “un director ejecutivo compasivo”.
Le puede interesar: Musk, Beyonce, Will Smith, Messi y más famosos retratados en condición de pobreza
PUBLICIDAD
Esto se hizo aplicando una técnica de aprendizaje automático, llamada agrupamiento a las imágenes, en la que trata de encontrar patrones sin asignarles categorías, como género o etnia.

Lo que permitió a los investigadores analizar las similitudes entre diferentes imágenes para ver qué sujetos agrupa el modelo, como personas en posiciones de poder.
PUBLICIDAD
Luego crearon herramientas interactivas que permitirán a cualquier persona explorar las imágenes que producen estos modelos de IA y cualquier sesgo reflejado en las figuras.
Algunos datos mostraron avatares pornográficos caricaturescos, mientras que a otras personas los convirtieron en astronautas, exploradores e inventores.
PUBLICIDAD

Sesgo y género
Después de que se analizaron las imágenes generadas por DALL-E 2 y Stable Diffusion, descubrieron que los modelos tendían a producir imágenes de personas que se veían blancas y masculinas, especialmente cuando los investigadores solicitaron que representaran sujetos en posiciones de autoridad.
Estos datos se deben a que las inteligencias fueron entrenadas con enormes cantidades de datos e imágenes extraídas de Internet, lo que demuestra que amplifica aún más los estereotipos sobre la raza y el género que existen hoy en la sociedad digital.
PUBLICIDAD
En el caso de DALL-E 2, fue particularmente cierto, ya que el 97% de las veces generó hombres blancos cuando se les dio las indicaciones como “CEO” o “director”.
Le puede interesar: Los robots de Meta con inteligencia artificial que imitan a los humanos
PUBLICIDAD
En el caso de los modelos de trabajo, los investigadores solicitaron que mostrará a una persona “compasiva”, “emocional” o “sensible”, en el que genero a una mujer en lugar de a un hombre. Por el contrario, los adjetivos “obstinado”, “intelectual” o “irrazonable” en la mayoría de los casos conducían a hombres.

Etnias y géneros
También hubo otra prueba para cultura, en el que se les dio un comando: “Nativo americano”, y tanto DALL-E 2 como Stable Diffusion generaron imágenes de personas con tocados tradicionales.
PUBLICIDAD
“En casi todas las representaciones de los nativos americanos llevaban tocados tradicionales, lo que obviamente no es el caso en la vida real”, indicó Sasha Luccioni, investigadora de IA en Hugging Face que dirigió el trabajo.
OpenAI y Stability.AI, la compañía que creó Stable Diffusion, destacaron que han introducido correcciones para mitigar los sesgos arraigados en los sistemas, como el bloqueo de ciertas indicaciones que parecen generar imágenes ofensivas.
PUBLICIDAD
Le puede interesar: ChatGPT no es tan novedoso, estos son los chatbots que existieron antes
Asimismo, un portavoz de Stability.AI indicó a Technology Review, por medio de comunicación internacional, que la empresa entrena sus modelos en “conjuntos de datos específicos de diferentes países y culturas (...) esto debería servir para mitigar los sesgos causados por la sobrerrepresentación en los conjuntos de datos generales”.
Por último, Aylin Caliskan, profesora asistente de la Universidad de Washington que estudia el sesgo en los sistemas de IA, aseguró para el medio mencionado, que parte del problema es que estos modelos se entrenan predominantemente con datos centrados en los EE. UU., lo que significa que en su mayoría reflejan asociaciones, sesgos, valores y cultura estadounidense.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Lo dieron por muerto en 2022: hoy Google controla toda la cadena de la IA
Sundar Pichai capitalizó USD 4 billones, declaró “AI-first” en 2016 y aguantó dos años de burlas tras la salida de ChatGPT. Hoy Gemini tiene el 25% del tráfico mundial de IA y Google factura USD 400.000 millones al año

Cómo se verían Los Padrinos Mágicos en el universo de GTA, según la IA
Nano Banana 2 en Gemini de Google puede crear imágenes de Cosmo y Wanda con el estilo callejero característico de este videojuego

Steven Soderbergh defendió el uso creativo de la inteligencia artificial en su documental sobre John Lennon
El director detalló cómo la alianza con Meta permitió convertir una entrevista inédita en una experiencia visual innovadora, poniendo en debate la transparencia y los nuevos recursos del cine documental

Cómo se verían Las Guerreras K-pop en la vida real hoy 2026
Zoey, Rumi y Mira son reinterpretadas con estética real gracias a la IA, manteniendo su esencia dentro del universo de Las Guerreras K-pop

Los riesgos invisibles de usar IA en el trabajo, según Harvard: dolor de cabeza, fatiga y más
Estos síntomas son consecuencia de la sobrecarga mental causada por el uso prolongado de diferentes sistemas de inteligencia artificial

