
Una investigación del Centro para la Comunicación Constructiva (CCC) del MIT advierte que los modelos de lenguaje más avanzados presentan sesgos, lo que afecta la calidad de las respuestas que reciben personas con menor dominio del inglés, bajo nivel educativo o que residen fuera de Estados Unidos. Esta brecha amenaza con intensificar la desigualdad en el acceso global a la información.
Chatbots e IA: ¿realmente democratizan el acceso a la información?
El auge de los modelos de lenguaje extenso (LLM) como GPT-4 de OpenAI, Claude 3 Opus de Anthropic y Llama 3 de Meta generó la expectativa de una revolución en el acceso equitativo al conocimiento. Estas herramientas, promovidas como aliadas para democratizar la información, prometen una interfaz intuitiva y universal, sin importar el origen o nivel educativo del usuario.
Sin embargo, el estudio presentado por el CCC del MIT en la Conferencia AAAI de Inteligencia Artificial revela una realidad preocupante: los sistemas de IA tienden a ofrecer respuestas menos precisas y veraces a quienes más podrían beneficiarse de ellos.

Según la autora principal, Elinor Poole-Dayan, “esa visión no puede hacerse realidad sin garantizar que los sesgos del modelo y las tendencias perjudiciales se mitiguen de forma segura para todos los usuarios, independientemente de su idioma, nacionalidad u otros datos demográficos”.
Bajo rendimiento sistemático y sesgo en los asistentes de IA
Para evaluar el desempeño de los chatbots, los investigadores analizaron cómo respondían tres de los modelos más avanzados a preguntas extraídas de dos conjuntos de datos: TruthfulQA (que mide la veracidad) y SciQ (que evalúa la precisión en ciencias). A cada consulta se le añadió una breve biografía del usuario, variando el nivel educativo, dominio del inglés y país de origen.
Los resultados fueron claros: la precisión de las respuestas disminuyó significativamente cuando las preguntas provenían de usuarios con menor educación formal, bajo dominio del inglés o procedentes de países fuera de Estados Unidos.

Es pertinente indicar que la caída fue aún más marcada en personas que reunían varias de estas características, quienes recibieron respuestas de menor calidad y veracidad.
El estudio también identificó diferencias notables en función del país. Por ejemplo, Claude 3 Opus mostró un rendimiento inferior con usuarios de Irán en comparación con los de Estados Unidos, incluso cuando tenían niveles educativos equivalentes.
Negativas, lenguaje condescendiente y trato desigual
Uno de los hallazgos más sorprendentes fue la frecuencia con la que los modelos se negaron a responder preguntas a usuarios vulnerables. Claude 3 Opus, por ejemplo, se negó a responder casi el 11% de las preguntas formuladas por usuarios con bajo nivel educativo y que no eran angloparlantes nativos, frente a solo el 3,6% en el grupo de control sin biografía del usuario.

Además, los investigadores detectaron casos de lenguaje condescendiente o incluso burlón en las respuestas. Claude respondió de manera paternalista el 43,7% de las veces a usuarios con menor nivel educativo, mientras que esa cifra no superó el 1% para usuarios con mayor formación.
En algunos casos, el modelo imitó un inglés deficiente o empleó un dialecto exagerado, y evitó responder ciertas preguntas técnicas o científicas para usuarios de Irán o Rusia.
Jad Kabbara, investigador y coautor, señaló: “Observamos la mayor disminución de la precisión en el usuario que no es hablante nativo de inglés y tiene un nivel educativo más bajo”. Kabbara advirtió que estos efectos negativos “se agravan de forma preocupante”, lo que puede propagar desinformación entre quienes menos recursos tienen para detectarla.

Implicaciones sociales y el riesgo de perpetuar desigualdades digitales
Los resultados del MIT reflejan patrones de sesgo sociocognitivo previamente documentados en humanos. Las percepciones de menor competencia hacia hablantes no nativos de inglés o personas con menos estudios también se manifiestan en la evaluación de los chatbots, lo que implica que la tecnología puede reproducir y amplificar prejuicios existentes.
Deb Roy, directora del CCC y coautora del informe, resalta la importancia de “evaluar continuamente los sesgos sistemáticos que pueden infiltrarse discretamente en estos sistemas, generando perjuicios injustos para ciertos grupos sin que ninguno de nosotros seamos plenamente conscientes”.
Las implicaciones son aún mayores considerando las nuevas funciones de personalización, como la memoria de usuario en ChatGPT, que pueden incrementar el riesgo de trato desigual a grupos históricamente marginados.
Elinor Poole-Dayan advierte: “Nuestros hallazgos sugieren que, en realidad, podrían exacerbar las desigualdades existentes al proporcionar sistemáticamente información errónea o negarse a responder consultas a ciertos usuarios”.
Últimas Noticias
El móvil te quita el sueño: descubre lo que dicen los estudios sobre dormir con el teléfono cerca
La OMS sostiene que, en condiciones habituales de uso del celular, no existen pruebas concluyentes de que los campos electromagnéticos de bajo nivel causen daño

Top 5 de agentes IA que hacen tareas por ti sin instalaciones largas ni enredos
Estas herramientas, aunque menos avanzadas que las soluciones empresariales, permiten explorar el potencial de la IA en pocos pasos

Alejo Igoa hace historia: es el primer canal hispano con el Botón de Diamante Rojo en YouTube
El creador argentino sorprende al convertirse en el único de habla hispana en alcanzar los 100 millones de suscriptores

Eficiencia, riesgos y desafíos: la inteligencia artificial revoluciona los hospitales en Estados Unidos
La incorporación de asistentes digitales y herramientas automatizadas agiliza tareas y reduce la carga administrativa, pero también genera preocupación entre médicos y enfermeros por posibles errores y desafíos en la atención al paciente

App de inteligencia artificial en Android deja al descubierto millones de archivos personales
La vulnerabilidad permitió que cualquier persona pudiera acceder a los archivos subidos o generados por los usuarios, sin ningún tipo de autenticación ni restricción




