
En una universidad de Leipzig examinaron los sesos en dos modelos populares de generación de imágenes inteligencia artificial (IA): DALLE-E y Stable Difusión, ya que tiende notoriamente a amplificar los estereotipos dañinos.
Las herramientas creadas por los investigadores de la startup de IA Hugging Face utilizaron los dos modelos de imágenes de inteligencia artificial para generar 96.000 imágenes de personas de diferentes etnias, géneros y profesiones.
En el que se le solicitó a la inteligencia generar un conjunto de imágenes basadas en atributos sociales como “una mujer o un hombre latino”, y luego otro tipo relacionado con profesiones y adjetivos como “un plomero ambicioso” o “un director ejecutivo compasivo”.
Le puede interesar: Musk, Beyonce, Will Smith, Messi y más famosos retratados en condición de pobreza
Esto se hizo aplicando una técnica de aprendizaje automático, llamada agrupamiento a las imágenes, en la que trata de encontrar patrones sin asignarles categorías, como género o etnia.

Lo que permitió a los investigadores analizar las similitudes entre diferentes imágenes para ver qué sujetos agrupa el modelo, como personas en posiciones de poder.
Luego crearon herramientas interactivas que permitirán a cualquier persona explorar las imágenes que producen estos modelos de IA y cualquier sesgo reflejado en las figuras.
Algunos datos mostraron avatares pornográficos caricaturescos, mientras que a otras personas los convirtieron en astronautas, exploradores e inventores.

Sesgo y género
Después de que se analizaron las imágenes generadas por DALL-E 2 y Stable Diffusion, descubrieron que los modelos tendían a producir imágenes de personas que se veían blancas y masculinas, especialmente cuando los investigadores solicitaron que representaran sujetos en posiciones de autoridad.
Estos datos se deben a que las inteligencias fueron entrenadas con enormes cantidades de datos e imágenes extraídas de Internet, lo que demuestra que amplifica aún más los estereotipos sobre la raza y el género que existen hoy en la sociedad digital.
En el caso de DALL-E 2, fue particularmente cierto, ya que el 97% de las veces generó hombres blancos cuando se les dio las indicaciones como “CEO” o “director”.
Le puede interesar: Los robots de Meta con inteligencia artificial que imitan a los humanos
En el caso de los modelos de trabajo, los investigadores solicitaron que mostrará a una persona “compasiva”, “emocional” o “sensible”, en el que genero a una mujer en lugar de a un hombre. Por el contrario, los adjetivos “obstinado”, “intelectual” o “irrazonable” en la mayoría de los casos conducían a hombres.

Etnias y géneros
También hubo otra prueba para cultura, en el que se les dio un comando: “Nativo americano”, y tanto DALL-E 2 como Stable Diffusion generaron imágenes de personas con tocados tradicionales.
“En casi todas las representaciones de los nativos americanos llevaban tocados tradicionales, lo que obviamente no es el caso en la vida real”, indicó Sasha Luccioni, investigadora de IA en Hugging Face que dirigió el trabajo.
OpenAI y Stability.AI, la compañía que creó Stable Diffusion, destacaron que han introducido correcciones para mitigar los sesgos arraigados en los sistemas, como el bloqueo de ciertas indicaciones que parecen generar imágenes ofensivas.
Le puede interesar: ChatGPT no es tan novedoso, estos son los chatbots que existieron antes
Asimismo, un portavoz de Stability.AI indicó a Technology Review, por medio de comunicación internacional, que la empresa entrena sus modelos en “conjuntos de datos específicos de diferentes países y culturas (...) esto debería servir para mitigar los sesgos causados por la sobrerrepresentación en los conjuntos de datos generales”.
Por último, Aylin Caliskan, profesora asistente de la Universidad de Washington que estudia el sesgo en los sistemas de IA, aseguró para el medio mencionado, que parte del problema es que estos modelos se entrenan predominantemente con datos centrados en los EE. UU., lo que significa que en su mayoría reflejan asociaciones, sesgos, valores y cultura estadounidense.
Últimas Noticias
La muerte del hincha del River: qué muestran los videos de las cámaras de seguridad del club

El drama de alquilar: una encuesta registró que el 63% de los inquilinos porteños se endeudaron para acceder a la vivienda

Elecciones 2023, en vivo: “Los peronistas no sienten que este gobierno los haya defraudado”, sostuvo Agustín Rossi

Boudou reapareció tras sus complicaciones de salud: “Me di un flor de susto, por suerte estoy bien”

“Todos los padres deben ver esto”: de qué trata la película que Elon Musk recomendó en Twitter

Preocupación por el descenso en la esperanza de vida en EEUU: “El problema es mayor de lo que pensábamos”

WWDC23: Tres anuncios que Apple dará en su encuentro con desarrolladores

Vladimir Putin recrudece la represión de la oposición rusa en el tercer cumpleaños de Alexei Navalny en prisión

La Iglesia en Rusia continúa su avanzada sobre el acervo de los museos, con la bendición del Kremlin

Camila Homs oficializó su romance con José Sosa: la apasionada foto que publicó la modelo

Jorge Capitanich: “Para ser candidato a presidente se tiene que haber ganado elecciones”

Mataron a una jubilada en su casa de Mar del Plata e intentaron quemar el cuerpo: investigan si fue un robo

Carlos Vives festejó 30 años en la música: invadió Buenos Aires con su vallenato y homenajeó al rock nacional

Desde junio son hasta 20% más caros los costos fijos de patentar o transferir un auto: cuánto sale cada trámite

Twitter está lleno de contenido político y de ira, qué consecuencias representa

Estados Unidos denunció acciones “cada vez más arriesgadas y coercitivas” de China en Asia

El conmovedor mensaje de Carmen Barbieri para Fede Bal desde la clínica

Rusia bombardeó un aeródromo en el centro de Ucrania

De Ushuaia a la Quiaca, pasando por Mendoza: qué producto es tan caro en la Argentina que hay tours de compras al revés y mucho contrabando
Lo último en oncología 2023: en cada vez más tumores, el cáncer se ha transformado en una enfermedad crónica
