Unesco revela los estereotipos que estaría produciendo la inteligencia artificial

Ante el creciente uso de IA en la vida cotidiana, la entidad de las Naciones Unidas dedicada a la educación, la ciencia, y la cultura destaca la importancia de abordar y corregir los prejuicios incorporados que amenazan la equidad de género

Guardar
La Unesco publicó un informe
La Unesco publicó un informe detallado y enfocado en analizar e identificar los estereotipos de género presentes en la IA (Reuters - Bruna Casas)

La UNESCO, entidad de las Naciones Unidas dedicada a la educación, la ciencia, y la cultura, ha publicado recientemente un informe detallado y enfocado en analizar e identificar los estereotipos de género presentes en las herramientas de procesamiento del lenguaje natural. Estas herramientas son la base sobre la cual funcionan las plataformas de inteligencia artificial (IA) generativa más utilizadas hoy en día. El estudio, denominado “Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes”, evidencia la existencia de sesgos contra el género femenino en los contenidos producidos por estas plataformas.

Según se desprende del informe, el uso de modelos de lenguaje está cada vez más extendido en diferentes esferas, desde el ámbito laboral hasta el educativo y personal. Este fenómeno pone de manifiesto la capacidad de la IA para influir sutilmente en las percepciones de millones de usuarios. Audrey Azoulay, directora general de la Unesco ha expresado su preocupación al respecto, señalando que incluso pequeños sesgos de género incorporados en el contenido de estos sistemas pueden tener un efecto amplificador, perpetuando y profundizando las desigualdades de género existentes en la sociedad.

La directora de la organización ha exhortado a los gobiernos a desarrollar e implementar regulaciones claras y a las empresas a sustentar un monitoreo y evaluación constante para identificar sesgos. Esta iniciativa busca alinear la práctica con la recomendación de la Unesco sobre la ética en la inteligencia artificial, respaldada unánimemente en 2021.

En la imagen de archivo,
En la imagen de archivo, Audrey Azoulay, directora general de la Unesco. EPA/WU HONG

El análisis enfatizó que, aunque los grandes modelos de lenguaje de código abierto, como Llama 2 de META y GPT-2 de OpenAI, notorios por su acceso gratuito, presentaron un sesgo de género marcado, el acceso a su código ofrece un camino hacia la mejora para abordar y disminuir estos sesgos mediante colaboraciones de la comunidad investigadora del mundo.

Por otro lado, los modelos con acceso más restringido, tales como GPT-3.5 y 4 (usados en ChatGPT) y Gemini de Google, implican retos mayores para abordar el sesgo de género, de acuerdo con lo apuntado en la investigación.

Hallazgos del estudio

En el desarrollo de la investigación se detectaron sesgos de género, homofobia y racismo a través de los contenidos generados por inteligencia artificial (IA), destacando la tendencia de asignar roles de trabajo y características de manera desigual. Al solicitar a plataformas de IA que “escriban una historia” sobre individuos de diferentes géneros, sexualidades y orígenes culturales, se encontró que los varones recibían roles más prestigiosos, mientras que las mujeres eran a menudo relegadas a trabajos tradicionalmente menos valorados. Además, el estudio desveló contenido negativo generado por IA sobre personas homosexuales y algunos grupos étnicos, lo cual pone en relieve la necesidad de revisar y mejorar los algoritmos utilizados por estas tecnologías.

La Unesco destacó ejemplos específicos de cómo las narrativas producidas por modelos de IA como Llama 2 y GPT-2 continuaban con los estereotipos. Los varones eran frecuentemente asociados con profesiones como ingeniero, médico o profesor y descritos con palabras como “aventurero” o “decidido”. Por otro lado, términos como “suave”, “amor” y roles de trabajo como “empleada doméstica” o “prostituta” eran más comunes en las historias sobre mujeres. Este tipo de contenido no solo refleja una visión sesgada de género sino también de sexualidad y etnia, con resultados preocupantes cuando los modelos fueron solicitados a completar frases sobre personas gay o narrar historias sobre diferentes grupos culturales.

Los hombres recibían roles más
Los hombres recibían roles más prestigiosos, por la IA, mientras que las mujeres eran a menudo relegadas a trabajos tradicionalmente menos valorados (Imagen Ilustrativa Infobae)

Los hallazgos del estudio indican que el 70% del contenido generado por Llama 2 en torno a personas homosexuales era negativo, con etiquetas que los ubicaban en lugares bajos dentro de la jerarquía social. Además, GPT-2 reflejaba una tendencia similar, involucrando a esta población en contextos que implicaban criminalidad y falta de derechos. En relación a la percepción de diferentes etnias, se observó un claro sesgo cultural, asignando a hombres británicos una amplia gama de ocupaciones profesionales, mientras que los varones zulúes (grupo étnico africano) eran más frecuentemente asociados a trabajos de menor prestigio, como guardas de seguridad o jardineros. Las mujeres zulúes, por su parte, eran categorizadas principalmente en roles domésticos.

Estos hallazgos subrayan la importancia de desarrollar tecnologías de IA que sean inclusivas y justas, evitando perpetuar estereotipos negativos y discriminación. A medida que la IA continúa integrándose en diversos aspectos de la vida cotidiana, es fundamental que sus algoritmos promuevan la diversidad y la equidad, en lugar de replicar prejuicios existentes. La investigación de la UNESCO es un llamado a la acción para que diseñadores y programadores de IA aborden estas deficiencias, asegurando que los avances tecnológicos beneficien equitativamente a todos los sectores de la sociedad.

Últimas Noticias

EmilioTenti Fanfani: “Hay que hacer una profunda reforma intelectual y moral de la formación docente”

Invitado al podcast de Ticmas, el licenciado en Ciencias Políticas y Sociales por la Universidad Nacional de Cuyo y Diplôme Supérieur d’Etudes et Recherches Politique reflexionó sobre la educación pensada desde la cultura

EmilioTenti Fanfani: “Hay que hacer

Rosendo Grobo: “El corazón del sistema educativo son los docentes y están mal pagos”

En una charla en Infobae a la Tarde, Rosendo Grobo desglosó la crisis docente en la Argentina: salarios deteriorados, abandono de la profesión y pérdida de autoridad marcan un sistema educativo en tensión

Rosendo Grobo: “El corazón del

El Instituto Vaca Muerta es una realidad

Fundación YPF lleva adelante todo el proyecto con la participación de Ticmas como plataforma académica

El Instituto Vaca Muerta es

Inteligencia Artificial en la Educación Superior: la importancia del liderazgo humano

El Observatorio del Instituto para el Futuro de la Educación del Tecnológico de Monterrey publicó un nuevo informe que reúne testimonios de especialistas de universidades de América Latina, Europa y Estados Unidos para repensar el impacto y la evolución de la IA en la academia

Inteligencia Artificial en la Educación

Daron Acemoglu, Nobel de Economía y profesor del MIT: la inteligencia artificial ¿y el colapso del conocimiento humano colectivo?

El reconocido economista turco-estadounidense presentó una investigación junto a Dingwen Kong y Asuman Ozdaglar donde ponen el foco en el impacto a corto y mediano plazo del uso de la IA en la forma de pensar y aprender de los seres humanos en sociedad

Daron Acemoglu, Nobel de Economía