Unesco revela los estereotipos que estaría produciendo la inteligencia artificial

Ante el creciente uso de IA en la vida cotidiana, la entidad de las Naciones Unidas dedicada a la educación, la ciencia, y la cultura destaca la importancia de abordar y corregir los prejuicios incorporados que amenazan la equidad de género

Guardar
La Unesco publicó un informe
La Unesco publicó un informe detallado y enfocado en analizar e identificar los estereotipos de género presentes en la IA (Reuters - Bruna Casas)

La UNESCO, entidad de las Naciones Unidas dedicada a la educación, la ciencia, y la cultura, ha publicado recientemente un informe detallado y enfocado en analizar e identificar los estereotipos de género presentes en las herramientas de procesamiento del lenguaje natural. Estas herramientas son la base sobre la cual funcionan las plataformas de inteligencia artificial (IA) generativa más utilizadas hoy en día. El estudio, denominado “Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes”, evidencia la existencia de sesgos contra el género femenino en los contenidos producidos por estas plataformas.

Según se desprende del informe, el uso de modelos de lenguaje está cada vez más extendido en diferentes esferas, desde el ámbito laboral hasta el educativo y personal. Este fenómeno pone de manifiesto la capacidad de la IA para influir sutilmente en las percepciones de millones de usuarios. Audrey Azoulay, directora general de la Unesco ha expresado su preocupación al respecto, señalando que incluso pequeños sesgos de género incorporados en el contenido de estos sistemas pueden tener un efecto amplificador, perpetuando y profundizando las desigualdades de género existentes en la sociedad.

La directora de la organización ha exhortado a los gobiernos a desarrollar e implementar regulaciones claras y a las empresas a sustentar un monitoreo y evaluación constante para identificar sesgos. Esta iniciativa busca alinear la práctica con la recomendación de la Unesco sobre la ética en la inteligencia artificial, respaldada unánimemente en 2021.

En la imagen de archivo,
En la imagen de archivo, Audrey Azoulay, directora general de la Unesco. EPA/WU HONG

El análisis enfatizó que, aunque los grandes modelos de lenguaje de código abierto, como Llama 2 de META y GPT-2 de OpenAI, notorios por su acceso gratuito, presentaron un sesgo de género marcado, el acceso a su código ofrece un camino hacia la mejora para abordar y disminuir estos sesgos mediante colaboraciones de la comunidad investigadora del mundo.

Por otro lado, los modelos con acceso más restringido, tales como GPT-3.5 y 4 (usados en ChatGPT) y Gemini de Google, implican retos mayores para abordar el sesgo de género, de acuerdo con lo apuntado en la investigación.

Hallazgos del estudio

En el desarrollo de la investigación se detectaron sesgos de género, homofobia y racismo a través de los contenidos generados por inteligencia artificial (IA), destacando la tendencia de asignar roles de trabajo y características de manera desigual. Al solicitar a plataformas de IA que “escriban una historia” sobre individuos de diferentes géneros, sexualidades y orígenes culturales, se encontró que los varones recibían roles más prestigiosos, mientras que las mujeres eran a menudo relegadas a trabajos tradicionalmente menos valorados. Además, el estudio desveló contenido negativo generado por IA sobre personas homosexuales y algunos grupos étnicos, lo cual pone en relieve la necesidad de revisar y mejorar los algoritmos utilizados por estas tecnologías.

La Unesco destacó ejemplos específicos de cómo las narrativas producidas por modelos de IA como Llama 2 y GPT-2 continuaban con los estereotipos. Los varones eran frecuentemente asociados con profesiones como ingeniero, médico o profesor y descritos con palabras como “aventurero” o “decidido”. Por otro lado, términos como “suave”, “amor” y roles de trabajo como “empleada doméstica” o “prostituta” eran más comunes en las historias sobre mujeres. Este tipo de contenido no solo refleja una visión sesgada de género sino también de sexualidad y etnia, con resultados preocupantes cuando los modelos fueron solicitados a completar frases sobre personas gay o narrar historias sobre diferentes grupos culturales.

Los hombres recibían roles más
Los hombres recibían roles más prestigiosos, por la IA, mientras que las mujeres eran a menudo relegadas a trabajos tradicionalmente menos valorados (Imagen Ilustrativa Infobae)

Los hallazgos del estudio indican que el 70% del contenido generado por Llama 2 en torno a personas homosexuales era negativo, con etiquetas que los ubicaban en lugares bajos dentro de la jerarquía social. Además, GPT-2 reflejaba una tendencia similar, involucrando a esta población en contextos que implicaban criminalidad y falta de derechos. En relación a la percepción de diferentes etnias, se observó un claro sesgo cultural, asignando a hombres británicos una amplia gama de ocupaciones profesionales, mientras que los varones zulúes (grupo étnico africano) eran más frecuentemente asociados a trabajos de menor prestigio, como guardas de seguridad o jardineros. Las mujeres zulúes, por su parte, eran categorizadas principalmente en roles domésticos.

Estos hallazgos subrayan la importancia de desarrollar tecnologías de IA que sean inclusivas y justas, evitando perpetuar estereotipos negativos y discriminación. A medida que la IA continúa integrándose en diversos aspectos de la vida cotidiana, es fundamental que sus algoritmos promuevan la diversidad y la equidad, en lugar de replicar prejuicios existentes. La investigación de la UNESCO es un llamado a la acción para que diseñadores y programadores de IA aborden estas deficiencias, asegurando que los avances tecnológicos beneficien equitativamente a todos los sectores de la sociedad.

Últimas Noticias

Ausentismo crónico: uno de cada tres estudiantes de secundaria falta a más del 10% de las clases

Un nuevo estudio de la Secretaría de Educación analizó el fenómeno a partir de los registros diarios de asistencia de las escuelas. El ausentismo es más alto en las escuelas estatales, y aumenta progresivamente a lo largo del año. Especialistas y docentes analizan estrategias para abordar el problema

Ausentismo crónico: uno de cada

Ticmas presenta “A leer en vivo” en la FIL de Guadalajara: “El desafío no es cuánto leemos, sino cómo leemos”

Irma Ibarra, especialista en contenido educativo, reflexiona sobre el futuro de la lectura, la inteligencia artificial y el programa “A leer en vivo” en la 39° edición de la feria del libro más grande del mundo

Ticmas presenta “A leer en

El fútbol, el lenguaje universal que permite enseñar robótica y tecnología

Joaquín Wolf, líder del proyecto maker de Ticmas, habla de la propuesta que llevaron a la FIL de Guadalajara, donde, con robots futbolistas, acercan el pensamiento STEAM a niños y jóvenes

El fútbol, el lenguaje universal

Impulsan un “movimiento por la comprensión lectora” para abordar la crisis de alfabetización en América Latina

Más de 50 representantes de gobiernos, sociedad civil y organismos internacionales participarán en un encuentro virtual para fortalecer la alfabetización y promover estrategias que mejoren los niveles de lectura en la región. El evento comienza el martes 9 y puede seguirse vía YouTube

Impulsan un “movimiento por la

Los jóvenes mantienen vivo el hábito de la lectura en México

Un reciente informe público se destaca que el grupo de entre 12 y 24 años es el que más asentado tiene el hábito de leer en el país azteca. Además, la lectura digital también tiene gran presencia ya una de cada tres personas asegura leer en ese formato

Los jóvenes mantienen vivo el