Sesgos algorítmicos: racismo y homofobia en el reconocimiento facial, el reto es eliminarlos

Las empresas de tecnología siguen trabajando para evitar que no haya más discriminación con la implementación de la inteligencia artificial

Foto tomada de Colprensa.
Foto tomada de Colprensa.

¿Existen los sesgos algorítmicos? ¿Puede un sistema de reconocimiento facial ejercer algún tipo de discriminación racial o de algún otro tipo? ¿Qué tipo de responsabilidad o ética tiene la inteligencia artificial (IA)? Hoy, año 2022, las respuestas todavía se debaten.

Para empezar a construir una opinión al respecto, es importante saber que el alma de la IA son los datos, tal como escribe la revista “Derecho de Familia”, la abogada y profesora especializada en IA y derecho, Cecilia Danesi. Explica que los datos estarán presentes, no solo en el data set inicial con el que se entrene el sistema, sino también a raíz de los datos que va percibiendo con sus interacciones.

Además, respecto de la autonomía de las máquinas, es importante saber que la IA toma decisiones y que tiene capacidad de autoaprendizaje. El sistema crea las reglas con base a los datos que le proporcionamos y luego aplica esas reglas para hacer las predicciones. Entonces, ¿de dónde parten los sesgos algorítmicos? ¿De los humanos que programan y toman decisiones o del aprendizaje de la máquina y los datos que recibe y procesa?

Es difícil entregar una respuesta definitiva. Danesi elige, primero, explicar qué son los sesgos algorítmicos. “Se refieren a sistemas de inteligencia artificial que arrojan respuestas parciales, sesgadas, prejuiciosas, distorsionadas. El problema acaece cuando estas respuestas afectan considerablemente los derechos humanos y conducen a afianzar e incrementar las brechas existentes”, sostiene.

En este sentido, una de las grandes problemáticas de hoy son las técnicas de reconocimiento facial que albergan miles de sesgos en su IA. Las cámaras (de oficinas, aeropuertos, bancos u hogares) pueden registrar y reconocer rostros, para identificar personas y procesar esa información para llegar a determinados resultados.

Pero la IA puede cometer errores. En Estados Unidos, por ejemplo, hombres afroamericanos han denunciado que el reconocimiento facial de las cámaras los identificó falsamente como sospechosos en casos penales.

¿Cómo actúan las cámaras?

De acuerdo a información de la compañía, Johnson Controls, sus cámaras reconocen rostros que se basan en registros de datos, que mediante IA tienen un 98 % de precisión. Así por ejemplo, en un hogar, el sistema permite recibir alertas cuando todo tipo de rostro aparezca en escena (conocido o desconocido).

Otros sistemas, en aeropuertos, por ejemplo, permiten enmascarar los rostros de las personas que no son investigadas de manera automática. El nivel de precisión es cada vez más minucioso y asimismo, son muchos los sistemas de IA en cámaras de reconocimiento facial utilizados en el mundo.

Las cámaras toman una imagen en tiempo real, la compara con millones de imágenes en segundos y así, identifican si una persona tiene un pedido de captura, por ejemplo. ¿Y si se equivoca?

La investigadora del laboratorio de medios del MIT, Joy Buolamwini (presente en el documental “Coded Bias” de Netflix) colocó una máscara de color blanco en su rostro para que pueda ser identificado por la tecnología de reconocimiento. Comprobó que esos sistemas tienen menor precisión para identificar rostros de piel oscura y/o de mujeres.

“Cuando usamos machine learning (aprendizaje automático) creamos modelos para que las máquinas puedan entender el mundo, y este puede ser un proceso que replique y peor aún, amplifique errores humanos. Por eso, un primer paso fundamental para desarrollar algoritmos que no tomen decisiones sesgadas es trabajar con equipos multidisciplinarios que busquen representar la diversidad presente en la sociedad. De lo contrario, no podemos pedirle a la IA que haga lo que los humanos no hacemos”, afirmó el ingeniero y profesor, Fredi Vivas, CEO de RockingData y autor del libro “Cómo piensan las máquinas”.

Vivas señala que una mirada ética resulta fundamental a la hora de implementar IA. Su compañía fue fundada el mismo año que estalló el escándalo de Cambridge Analytica. “Es decir, no somos hijos de un optimismo utópico que caracterizaba a esta disciplina hace unos años, sino de una mirada respetuosa y cautelosa sobre los datos y lA”, dice.

Señala que su foco se concentra en la importancia de desarrollar algoritmos con una visión ética, y “para el bien” (Data for Good). “El propósito de cualquier persona que trabaje con IA tiene que ser usar el conocimiento para pensar de manera creativa y crítica, colaborando para resolver problemas de la vida real. Si queremos aprovechar el beneficio de usar los datos para mejorar la calidad de vida de las personas, es el momento de establecer criterios legales y éticos sólidos”, sostiene.

De esta manera, muchas compañías de tecnología están trabajando para seguir reduciendo los casos de racismo u homofobia que podrían generar estos sesgos en la sociedad.

SEGUIR LEYENDO:

TE PUEDE INTERESAR