Cuáles son los principales sesgos cognitivos y cómo se manifiestan en la IA

Nuestro cerebro toma atajos que nos engañan. Ahora, las máquinas que creamos heredan esos mismos defectos. Cómo los sesgos humanos se replican en la inteligencia artificial

Guardar
(Imagen Ilustrativa Infobae)
Los sesgos son "atajo mentales" que usa nuestro cerebro; los modelos de IA suelen heredarlos (Imagen Ilustrativa Infobae)

Estos “atajos mentales” que el cerebro usa para procesar información velozmente pueden llevarnos a sistemáticos errores de juicio. En la era de la inteligencia artificial, comprender estos sesgos cobra nueva relevancia: no solo afectan a quienes diseñan y usan estas tecnologías, sino que los sistemas de IA pueden heredar, amplificar o incluso crear nuevas formas de estos sesgos.

1. Sesgo de Confirmación

Es nuestra tendencia a buscar, interpretar y recordar información de manera que confirme nuestras creencias preexistentes, mientras ignoramos o minimizamos evidencia contradictoria. Por ejemplo: una persona convencida de que cierta dieta es la mejor prestará atención a estudios que la respaldan e ignorará investigaciones que muestren sus limitaciones. Si alguien cree que un político es corrupto, interpretará acciones ambiguas como confirmación de esa corrupción, mientras que un simpatizante verá las mismas acciones como inocentes.

Los sistemas de IA pueden manifestar sesgo de confirmación de varias maneras. Por ejemplo, si un chatbot se entrena principalmente con artículos de cierta orientación política, sus respuestas sobre temas controversiales reflejarán esa inclinación. Más preocupante aún, los algoritmos de recomendación en redes sociales amplifican este sesgo al mostrarnos contenido similar a lo que ya hemos consumido, crean “burbujas de filtro” que refuerzan nuestras creencias existentes y limitan la exposición a perspectivas diversas.

Efecto Dunning-Kruger suele estar vinculado con el síndrome del impostor (Imagen Ilustrativa Infobae)
Efecto Dunning-Kruger suele estar vinculado con el síndrome del impostor (Imagen Ilustrativa Infobae)

2. Efecto Dunning-Kruger

Este sesgo describe cómo las personas con conocimiento limitado en un área tienden a sobreestimar dramáticamente su competencia, mientras que los verdaderos expertos tienden a subestimar sus habilidades, asumiendo que lo que es fácil para ellos también lo es para otros. Si alguien toma un curso online de tres semanas sobre inversiones puede sentirse capacitado para dar consejos financieros complejos, ignorando los matices que un economista con años de estudio comprendería. En contraste, un programador experimentado podría decir “solo sé un poco de Python” cuando en realidad es un experto.

Los sistemas de IA presentan un problema peculiar relacionado con este efecto: tienden a generar respuestas con un nivel de confianza uniforme, independientemente de la solidez de su conocimiento sobre un tema. Un modelo de lenguaje puede responder con igual seguridad sobre medicina cuántica —donde su información es limitada— y sobre gramática básica —donde tiene datos abundantes—. Esto es peligroso porque los usuarios pueden no distinguir cuándo la IA especula y cuándo proporciona información bien fundamentada.

(Imagen Ilustrativa Infobae)
En un restaurante, un plato de $75.000 hace que uno de $50.000 parezca razonable. (Imagen Ilustrativa Infobae)

3. Sesgo de Anclaje

El anclaje ocurre cuando nos apoyamos excesivamente en la primera información que recibimos —el “ancla”— al tomar decisiones. Este punto de referencia inicial influye desproporcionadamente en nuestros juicios subsecuentes, incluso cuando es arbitrario o irrelevante. En una negociación, quien hace la primera oferta establece un ancla. En un restaurante, ver un plato de $75.000 hace que uno de $50.000 parezca razonable, aunque objetivamente sea caro.

Los modelos de IA son particularmente susceptibles al anclaje en el contexto de una conversación. La información presentada al principio de un prompt tiene un peso desproporcionado en la respuesta generada. Los sistemas de recomendación también caen en este sesgo: las primeras interacciones de un usuario establecen un perfil inicial que influye fuertemente en recomendaciones futuras, a veces atrapando a los usuarios en categorías de las que son difíciles de escapar.

(Imagen Ilustrativa Infobae)
Los accidentes aéreos son estadísticamnete menores que los accidentes de tránsito (Imagen Ilustrativa Infobae)

4. Heurística de Disponibilidad

Es el sesgo que nos lleva a sobreestimar la probabilidad o frecuencia de eventos que podemos recordar fácilmente, típicamente porque son recientes, vívidos, inusuales o emocionalmente impactantes. Por ejemplo, después de ver noticias sobre un accidente aéreo, las personas sobreestiman el riesgo de volar, aunque estadísticamente es mucho más seguro que conducir.

Los modelos de IA generativa tienden a dar más peso a patrones que aparecían frecuentemente en sus datos de entrenamiento. Los algoritmos de búsqueda y contenido también amplifican este sesgo. Las historias virales, sensacionales o recientes dominan los resultados, mientras que información igualmente válida pero menos compartida, comentada o vista queda enterrada.

(Imagen Ilustrativa Infobae)
La misma información, expresada de forma positiva, tiene más impacto que expresada de manera contraria (Imagen Ilustrativa Infobae)

5. Efecto de Encuadre (Framing)

El efecto de encuadre muestra que nuestras decisiones cambian dependiendo de cómo se presente la misma información. Las personas reaccionan de manera diferente a opciones idénticas según se formulen en términos de ganancias o pérdidas, positivos o negativos. Un caso habitual es en el supermercado: la carne etiquetada como “90% libre de grasa” se vende mejor que la que tiene “10% de grasa”.

Los sistemas de IA son extremadamente sensibles al encuadre. La misma pregunta formulada de diferentes maneras puede producir respuestas sustancialmente distintas. Quienes diseñan las interfaces de IA —cómo se formulan las preguntas predeterminadas, qué opciones se ofrecen primero— tienen un poder considerable sobre las respuestas que los usuarios reciben. En aplicaciones de IA para toma de decisiones corporativas o políticas, el encuadre de las consultas puede inadvertidamente inclinar las recomendaciones en una dirección particular.

(Imagen Ilustrativa Infobae)
Tras una crisis económica, los comentaristas afirman que “todas las señales estaban ahí”, pero ¿estaban ahí? (Imagen Ilustrativa Infobae)

6. Sesgo de Retrospectiva

Después de que un evento ocurre, tendemos a creer que era más predecible de lo que realmente fue. Reescribimos nuestra memoria para sentirnos como si siempre lo hubiéramos sabido o que deberíamos haberlo previsto. Tras una crisis económica, los comentaristas afirman que “todas las señales estaban ahí”, cuando en realidad había opiniones divididas antes del evento.

Los modelos de IA no experimentan retrospectiva en el sentido psicológico, pero pueden generar narrativas que reflejan este sesgo presente en sus datos de entrenamiento. Al analizar eventos históricos, un modelo puede presentar retrospectivamente una claridad causal que no existía en el momento.

Imagen representativa de hombres y mujeres trabajando en una oficina colaborativa. Se destaca la dinámica del trabajo en equipo, la productividad y la colaboración para el éxito empresarial. (Imagen ilustrativa Infobae)
Solemos creer que las personas más bellas son también más inteligentes (Imagen ilustrativa Infobae)

7. Efecto Halo

El efecto halo ocurre cuando una característica positiva —o negativa— de una persona, marca u objeto influye desproporcionadamente en cómo evaluamos sus otras características, incluso si no están relacionadas. Tendemos a asumir que las personas físicamente atractivas son también más inteligentes, amables o competentes, sin evidencia de estas cualidades. Un profesor carismático puede recibir evaluaciones positivas incluso si su enseñanza es mediocre.

El efecto halo impacta en cómo percibimos y evaluamos los sistemas de IA. Si una IA realiza impresionantemente bien una tarea —como jugar ajedrez—, tendemos a asumir que será igualmente competente en otras áreas, cuando en realidad puede ser altamente especializada. El éxito de ChatGPT en conversación hace que algunos sobreestimen sus capacidades en razonamiento matemático o asesoramiento médico.

Estamos más motivados por evitar perder  que por ganar (Imagen Ilustrativa Infobae)
Estamos más motivados por evitar perder que por ganar (Imagen Ilustrativa Infobae)

8. Aversión a la Pérdida

La aversión a la pérdida describe cómo sentimos las pérdidas aproximadamente dos veces más intensamente que las ganancias equivalentes. Estamos más motivados por evitar perder $10.000 que por ganar $10.000. Los inversores mantienen acciones perdedoras demasiado tiempo, esperando recuperar su inversión inicial (evitar “realizar” la pérdida), mientras venden ganadoras demasiado pronto para “asegurar” la ganancia.

Aunque la IA no experimenta emociones, la aversión a la pérdida humana influye profundamente en el diseño de sistemas de IA. Los desarrolladores diseñan algoritmos de trading o recomendación de inversión que reflejan o intentan contrarrestar este sesgo humano. Sin embargo, si no se calibran cuidadosamente, pueden amplificar comportamientos de aversión a la pérdida o, en el extremo opuesto, tomar riesgos que los humanos encontrarían irresponsables.

Tendemos a justificar las faltas de nuestro equipo mientras criticamos las mismas acciones del equipo rival (AP Foto/Rodrigo Abd)
Tendemos a justificar las faltas de nuestro equipo mientras criticamos las mismas acciones del equipo rival (AP Foto/Rodrigo Abd)

9. Sesgo de Grupo (Ingroup Bias)

Es nuestra tendencia a favorecer a miembros de nuestro propio grupo —sea el que sea: familia, equipo de fútbol, nacionalidad, religión, partido político— sobre los de grupos externos, incluso cuando la categorización es arbitraria. En estudios clásicos, las personas muestran preferencia por miembros de equipos asignados aleatoriamente, incluso cuando saben que la asignación fue por el lanzamiento de una moneda. En deportes, tendemos a justificar faltas de nuestro equipo mientras criticamos las mismas acciones del equipo contrario. En política, evaluamos políticas según quién las propone, no solo por su mérito.

El sesgo de grupo puede infiltrarse en sistemas de IA de múltiples maneras. Si los datos de entrenamiento reflejan prejuicios sociales sobre grupos étnicos, de género o socioeconómicos, el modelo puede reproducir esos sesgos. Algoritmos de reconocimiento facial han mostrado tasas de error más altas para personas de piel oscura, reflejando que los datos de entrenamiento estaban sesgados hacia rostros de piel clara.

(Imagen Ilustrativa Infobae)
¿Quién tiene la culpa? Solemos creer que siempre es el otro. (Imagen Ilustrativa Infobae)

10. Error Fundamental de Atribución

Este sesgo describe cómo tendemos a atribuir el comportamiento de otras personas a su carácter o personalidad (causas internas), mientras atribuimos nuestro propio comportamiento a circunstancias situacionales (causas externas). Si un estudiante falla un examen, asumimos que es perezoso; si nosotros fallamos, fue porque el examen era injusto o estábamos enfermos.

Los sistemas de IA que evalúan comportamiento humano pueden perpetuar el error fundamental de atribución. Algoritmos de evaluación de empleados pueden interpretar una baja en productividad como falta de compromiso sin considerar factores situacionales como problemas de salud mental, conflictos laborales o recursos inadecuados. En sistemas de justicia criminal predictiva, este sesgo puede ser devastador: si un algoritmo predice reincidencia basándose principalmente en historial criminal sin considerar adecuadamente factores situacionales (pobreza, falta de oportunidades, trauma), perpetúa ciclos de encarcelamiento injusto.

Últimas Noticias

El duro balance de un profesor tras 40 años de docencia: “Estamos perpetuando el fracaso, venimos en caída libre”

A sus 60 años, Jorge Angelini podría muy bien estar jubilado. Dio clase ininterrumpidamente desde 1986 y pese al balance negativo no pierde el entusiasmo. Está entre los docentes a los que la titular provincial de Educación llama “defensores del dificilismo”

El duro balance de un profesor tras 40 años de docencia: “Estamos perpetuando el fracaso, venimos en caída libre”

Franco Bartolacci: “Necesitamos resolver la situación salarial y avanzar hacia una segunda reforma universitaria”

El nuevo presidente del Consejo Interuniversitario Nacional advirtió que los salarios de los docentes y no docentes están en niveles críticos y reclamó que se cumpla la ley de financiamiento. Además, planteó la necesidad de transformar los planes de estudio y articular mejor con la secundaria

Franco Bartolacci: “Necesitamos resolver la situación salarial y avanzar hacia una segunda reforma universitaria”

Violencia en la escuela: el elefante en el aula que preferimos no ver

Ayer por la mañana, un chico de quince años mató a Ian Cabrera, de trece, en la Escuela 40 de San Cristóbal, Santa Fe. Para el autor de esta columna de opinión, no fue un caso aislado, sino la consecuencia de un clima de violencia del que debemos hacernos responsables

Violencia en la escuela: el elefante en el aula que preferimos no ver

Rebeca Anijovich: “La IA hace que volvamos a pensar el sentido de la evaluación”

La especialista y Magíster en formación de formadores, docente y asesora pedagógica estuvo en el podcast de Ticmas para conversar sobre el difícil arte de evaluar y adquirir conocimientos en los tiempos que corren

Rebeca Anijovich: “La IA hace que volvamos a pensar el sentido de la evaluación”

La Silla Roja: una campaña que alerta sobre una nueva forma de la desigualdad educativa y la caída de matrícula

Una nueva edición de “La Silla Roja” impulsada por la ONG Fe y Alegría apunta a garantizar aprendizajes reales para todos los estudiantes ante un contexto donde se espera una caída del 27 % de la matrícula escolar hacia 2030 y una falta de mirada estratégica nacional

La Silla Roja: una campaña que alerta sobre una nueva forma de la desigualdad educativa y la caída de matrícula