
En la actualidad, la inteligencia artificial (IA) está moldeando aspectos fundamentales de la vida cotidiana, desde la medicina hasta la educación. Sin embargo, uno de los mayores desafíos en su desarrollo y despliegue es la presencia de sesgos que pueden influir en las decisiones automatizadas, perpetuando desigualdades sociales y afectando a grupos vulnerables de manera desproporcionada.
Debido a esto, el MIT Technology Review compartió la nueva propuesta de los expertos para controlar rasgos discriminatorios.
Recientemente, un equipo de investigadores de la Universidad de Stanford realizó un estudio y propuso ocho nuevos benchmarks -una referencia para evaluar la equidad en la IA-, los cuales ofrecen un enfoque más matizado y preciso que los estándares tradicionales.

Los nuevos benchmarks de IA que proponen los científicos
El equipo de investigación de Stanford, liderado por Angelina Wang, miembro postdoctoral en el Instituto para la Inteligencia Artificial Centrada en el Ser Humano y RegLab, identificó una nueva forma de evaluar los sesgos en los modelos de IA mediante la creación de diferentes benchmarks, clasificados en dos categorías: descriptivos y normativos.
Estas referencias surgen a raíz de la frustración con los enfoques tradicionales de medición de la equidad, los cuales, no siempre logran capturar la complejidad de los sesgos presentes en los sistemas de IA.
A través de estos nuevos indicadores, los especialistas buscan ofrecer herramientas más precisas para analizar cómo los modelos de IA comprenden el mundo y si perpetúan estereotipos o desigualdades.
Problema con los enfoques tradicionales para la equidad
Los enfoques tradicionales, como el benchmark DiscrimEval, se centran en medir los patrones discriminatorios a partir de las respuestas que los modelos de IA dan a preguntas relacionadas con datos demográficos. Sin embargo, estos métodos demostraron ser insuficientes en la lucha contra el sesgo, ya que aunque los modelos puedan obtener puntuaciones altas en estos benchmarks, no necesariamente se traducen en resultados equitativos.
Un modelo de IA que tiene un desempeño excelente en la evaluación de la equidad podría generar respuestas que siguen perpetuando estereotipos dañinos.
Este fenómeno quedó en evidencia con el caso de Google Gemini, que produjo imágenes históricamente inexactas de figuras como los fundadores de EEUU, representados incorrectamente como diversos racialmente. Este tipo de errores subraya la necesidad urgente de evaluar la IA desde nuevas perspectivas, capaces de reflejar mejor las complejidades sociales y culturales.

Los benchmarks descriptivos propuestos por Stanford, miden la capacidad de un modelo de IA para responder preguntas objetivas sobre hechos específicos, como leyes y características demográficas.
Mientras que los benchmarks normativos abordan cuestiones más complejas y subjetivas, centradas en la capacidad del modelo para diferenciar entre grupos sociales y evaluar el daño potencial de sus respuestas en un contexto más amplio.
Impacto de los métodos actuales para reducir sesgos
Aunque los métodos actuales de reducción de sesgo lograron algunos avances, los expertos destacan que estas estrategias pueden ser contraproducentes. Por ejemplo, cuando se instruye a los modelos de IA para tratar a todos los grupos de manera igualitaria, sin tener en cuenta las diferencias reales entre ellos, el resultado puede ser una disminución de la precisión sin lograr mejorar realmente la equidad.
Esto es particularmente evidente en campos como la medicina, donde los sistemas de IA diseñados para diagnosticar enfermedades como el melanoma mostraron mejores resultados para pieles claras debido a la falta de datos de entrenamiento sobre pieles oscuras. Intentar igualar los resultados para todos los grupos sin reconocer las diferencias puede, irónicamente, empeorar la situación.
La directora ejecutiva del Proyecto de Inteligencia Colectiva, Divya Siddarth, explicó: “Estuvimos atrapados durante mucho tiempo en nociones desactualizadas de lo que significa la equidad y el sesgo”.
En tanto, la solución, según afirman los especialistas, no es tratar a todos de la misma manera, sino entender las diferencias y abordarlas de manera que todos los grupos puedan beneficiarse con la tecnología.

Posibles soluciones y avances futuros
Para abordar estos desafíos, los investigadores proponen diversas soluciones. Una de ellas es el desarrollo de conjuntos de datos más diversos y representativos que permitan entrenar modelos de IA con una mayor variedad de experiencias. No obstante, su creación puede ser costosa y llevar mucho tiempo.
Además, la “interpretabilidad mecanicista”, que busca entender y manipular los accionares internos de los modelos de IA, podría ofrecer una solución eficaz. Esto permitiría a los científicos identificar y corregir los sesgos en las redes neuronales de la IA.
También se sugirió que el enfoque de “humano en el circuito” podría ser necesario, especialmente en situaciones complejas donde las decisiones éticas son clave.
Sandra Wachter, profesora en la Universidad de Oxford, argumentó que “la idea de que la tecnología pueda ser completamente justa y objetiva es un mito”. Los modelos de IA, nunca podrán reemplazar la intervención humana en las decisiones relacionadas con el sesgo y la ética.
Últimas Noticias
Top 10 animes para ver en maratón este fin de semana
La plataforma de streaming cuenta en su catálogo con series exclusivas que están en emisión en Japón

Cómo blindar fotos y mensajes en WhatsApp para que nadie los reenvíe
Esta nueva función estará disponible de manera progresiva para todos los usuarios que actualicen la aplicación

Meta llevará su inteligencia artificial a la Estación Espacial Internacional
Según la compañía, esta tecnología desempeñará un papel crucial en la exploración lunar y marciana

Cómo liberar memoria en WhatsApp sin borrar mensajes ni fotos
Borrar respaldos desactualizados no afecta las conversaciones actuales ni el historial guardado en el teléfono
Qué es la memoria caché en un celular y por qué afecta el rendimiento del teléfono
Cada aplicación utiliza la memoria caché para guardar imágenes, configuraciones y datos
