Cuáles son los principales sesgos cognitivos y cómo se manifiestan en la IA

Nuestro cerebro toma atajos que nos engañan. Ahora, las máquinas que creamos heredan esos mismos defectos. Cómo los sesgos humanos se replican en la inteligencia artificial

Guardar
Los sesgos son "atajo mentales"
Los sesgos son "atajo mentales" que usa nuestro cerebro; los modelos de IA suelen heredarlos (Imagen Ilustrativa Infobae)

Estos “atajos mentales” que el cerebro usa para procesar información velozmente pueden llevarnos a sistemáticos errores de juicio. En la era de la inteligencia artificial, comprender estos sesgos cobra nueva relevancia: no solo afectan a quienes diseñan y usan estas tecnologías, sino que los sistemas de IA pueden heredar, amplificar o incluso crear nuevas formas de estos sesgos.

1. Sesgo de Confirmación

Es nuestra tendencia a buscar, interpretar y recordar información de manera que confirme nuestras creencias preexistentes, mientras ignoramos o minimizamos evidencia contradictoria. Por ejemplo: una persona convencida de que cierta dieta es la mejor prestará atención a estudios que la respaldan e ignorará investigaciones que muestren sus limitaciones. Si alguien cree que un político es corrupto, interpretará acciones ambiguas como confirmación de esa corrupción, mientras que un simpatizante verá las mismas acciones como inocentes.

Los sistemas de IA pueden manifestar sesgo de confirmación de varias maneras. Por ejemplo, si un chatbot se entrena principalmente con artículos de cierta orientación política, sus respuestas sobre temas controversiales reflejarán esa inclinación. Más preocupante aún, los algoritmos de recomendación en redes sociales amplifican este sesgo al mostrarnos contenido similar a lo que ya hemos consumido, crean “burbujas de filtro” que refuerzan nuestras creencias existentes y limitan la exposición a perspectivas diversas.

Efecto Dunning-Kruger suele estar vinculado
Efecto Dunning-Kruger suele estar vinculado con el síndrome del impostor (Imagen Ilustrativa Infobae)

2. Efecto Dunning-Kruger

Este sesgo describe cómo las personas con conocimiento limitado en un área tienden a sobreestimar dramáticamente su competencia, mientras que los verdaderos expertos tienden a subestimar sus habilidades, asumiendo que lo que es fácil para ellos también lo es para otros. Si alguien toma un curso online de tres semanas sobre inversiones puede sentirse capacitado para dar consejos financieros complejos, ignorando los matices que un economista con años de estudio comprendería. En contraste, un programador experimentado podría decir “solo sé un poco de Python” cuando en realidad es un experto.

Los sistemas de IA presentan un problema peculiar relacionado con este efecto: tienden a generar respuestas con un nivel de confianza uniforme, independientemente de la solidez de su conocimiento sobre un tema. Un modelo de lenguaje puede responder con igual seguridad sobre medicina cuántica —donde su información es limitada— y sobre gramática básica —donde tiene datos abundantes—. Esto es peligroso porque los usuarios pueden no distinguir cuándo la IA especula y cuándo proporciona información bien fundamentada.

En un restaurante, un plato
En un restaurante, un plato de $75.000 hace que uno de $50.000 parezca razonable. (Imagen Ilustrativa Infobae)

3. Sesgo de Anclaje

El anclaje ocurre cuando nos apoyamos excesivamente en la primera información que recibimos —el “ancla”— al tomar decisiones. Este punto de referencia inicial influye desproporcionadamente en nuestros juicios subsecuentes, incluso cuando es arbitrario o irrelevante. En una negociación, quien hace la primera oferta establece un ancla. En un restaurante, ver un plato de $75.000 hace que uno de $50.000 parezca razonable, aunque objetivamente sea caro.

Los modelos de IA son particularmente susceptibles al anclaje en el contexto de una conversación. La información presentada al principio de un prompt tiene un peso desproporcionado en la respuesta generada. Los sistemas de recomendación también caen en este sesgo: las primeras interacciones de un usuario establecen un perfil inicial que influye fuertemente en recomendaciones futuras, a veces atrapando a los usuarios en categorías de las que son difíciles de escapar.

Los accidentes aéreos son estadísticamnete
Los accidentes aéreos son estadísticamnete menores que los accidentes de tránsito (Imagen Ilustrativa Infobae)

4. Heurística de Disponibilidad

Es el sesgo que nos lleva a sobreestimar la probabilidad o frecuencia de eventos que podemos recordar fácilmente, típicamente porque son recientes, vívidos, inusuales o emocionalmente impactantes. Por ejemplo, después de ver noticias sobre un accidente aéreo, las personas sobreestiman el riesgo de volar, aunque estadísticamente es mucho más seguro que conducir.

Los modelos de IA generativa tienden a dar más peso a patrones que aparecían frecuentemente en sus datos de entrenamiento. Los algoritmos de búsqueda y contenido también amplifican este sesgo. Las historias virales, sensacionales o recientes dominan los resultados, mientras que información igualmente válida pero menos compartida, comentada o vista queda enterrada.

La misma información, expresada de
La misma información, expresada de forma positiva, tiene más impacto que expresada de manera contraria (Imagen Ilustrativa Infobae)

5. Efecto de Encuadre (Framing)

El efecto de encuadre muestra que nuestras decisiones cambian dependiendo de cómo se presente la misma información. Las personas reaccionan de manera diferente a opciones idénticas según se formulen en términos de ganancias o pérdidas, positivos o negativos. Un caso habitual es en el supermercado: la carne etiquetada como “90% libre de grasa” se vende mejor que la que tiene “10% de grasa”.

Los sistemas de IA son extremadamente sensibles al encuadre. La misma pregunta formulada de diferentes maneras puede producir respuestas sustancialmente distintas. Quienes diseñan las interfaces de IA —cómo se formulan las preguntas predeterminadas, qué opciones se ofrecen primero— tienen un poder considerable sobre las respuestas que los usuarios reciben. En aplicaciones de IA para toma de decisiones corporativas o políticas, el encuadre de las consultas puede inadvertidamente inclinar las recomendaciones en una dirección particular.

Tras una crisis económica, los
Tras una crisis económica, los comentaristas afirman que “todas las señales estaban ahí”, pero ¿estaban ahí? (Imagen Ilustrativa Infobae)

6. Sesgo de Retrospectiva

Después de que un evento ocurre, tendemos a creer que era más predecible de lo que realmente fue. Reescribimos nuestra memoria para sentirnos como si siempre lo hubiéramos sabido o que deberíamos haberlo previsto. Tras una crisis económica, los comentaristas afirman que “todas las señales estaban ahí”, cuando en realidad había opiniones divididas antes del evento.

Los modelos de IA no experimentan retrospectiva en el sentido psicológico, pero pueden generar narrativas que reflejan este sesgo presente en sus datos de entrenamiento. Al analizar eventos históricos, un modelo puede presentar retrospectivamente una claridad causal que no existía en el momento.

Solemos creer que las personas
Solemos creer que las personas más bellas son también más inteligentes (Imagen ilustrativa Infobae)

7. Efecto Halo

El efecto halo ocurre cuando una característica positiva —o negativa— de una persona, marca u objeto influye desproporcionadamente en cómo evaluamos sus otras características, incluso si no están relacionadas. Tendemos a asumir que las personas físicamente atractivas son también más inteligentes, amables o competentes, sin evidencia de estas cualidades. Un profesor carismático puede recibir evaluaciones positivas incluso si su enseñanza es mediocre.

El efecto halo impacta en cómo percibimos y evaluamos los sistemas de IA. Si una IA realiza impresionantemente bien una tarea —como jugar ajedrez—, tendemos a asumir que será igualmente competente en otras áreas, cuando en realidad puede ser altamente especializada. El éxito de ChatGPT en conversación hace que algunos sobreestimen sus capacidades en razonamiento matemático o asesoramiento médico.

Estamos más motivados por evitar
Estamos más motivados por evitar perder que por ganar (Imagen Ilustrativa Infobae)

8. Aversión a la Pérdida

La aversión a la pérdida describe cómo sentimos las pérdidas aproximadamente dos veces más intensamente que las ganancias equivalentes. Estamos más motivados por evitar perder $10.000 que por ganar $10.000. Los inversores mantienen acciones perdedoras demasiado tiempo, esperando recuperar su inversión inicial (evitar “realizar” la pérdida), mientras venden ganadoras demasiado pronto para “asegurar” la ganancia.

Aunque la IA no experimenta emociones, la aversión a la pérdida humana influye profundamente en el diseño de sistemas de IA. Los desarrolladores diseñan algoritmos de trading o recomendación de inversión que reflejan o intentan contrarrestar este sesgo humano. Sin embargo, si no se calibran cuidadosamente, pueden amplificar comportamientos de aversión a la pérdida o, en el extremo opuesto, tomar riesgos que los humanos encontrarían irresponsables.

Tendemos a justificar las faltas
Tendemos a justificar las faltas de nuestro equipo mientras criticamos las mismas acciones del equipo rival (AP Foto/Rodrigo Abd)

9. Sesgo de Grupo (Ingroup Bias)

Es nuestra tendencia a favorecer a miembros de nuestro propio grupo —sea el que sea: familia, equipo de fútbol, nacionalidad, religión, partido político— sobre los de grupos externos, incluso cuando la categorización es arbitraria. En estudios clásicos, las personas muestran preferencia por miembros de equipos asignados aleatoriamente, incluso cuando saben que la asignación fue por el lanzamiento de una moneda. En deportes, tendemos a justificar faltas de nuestro equipo mientras criticamos las mismas acciones del equipo contrario. En política, evaluamos políticas según quién las propone, no solo por su mérito.

El sesgo de grupo puede infiltrarse en sistemas de IA de múltiples maneras. Si los datos de entrenamiento reflejan prejuicios sociales sobre grupos étnicos, de género o socioeconómicos, el modelo puede reproducir esos sesgos. Algoritmos de reconocimiento facial han mostrado tasas de error más altas para personas de piel oscura, reflejando que los datos de entrenamiento estaban sesgados hacia rostros de piel clara.

¿Quién tiene la culpa? Solemos
¿Quién tiene la culpa? Solemos creer que siempre es el otro. (Imagen Ilustrativa Infobae)

10. Error Fundamental de Atribución

Este sesgo describe cómo tendemos a atribuir el comportamiento de otras personas a su carácter o personalidad (causas internas), mientras atribuimos nuestro propio comportamiento a circunstancias situacionales (causas externas). Si un estudiante falla un examen, asumimos que es perezoso; si nosotros fallamos, fue porque el examen era injusto o estábamos enfermos.

Los sistemas de IA que evalúan comportamiento humano pueden perpetuar el error fundamental de atribución. Algoritmos de evaluación de empleados pueden interpretar una baja en productividad como falta de compromiso sin considerar factores situacionales como problemas de salud mental, conflictos laborales o recursos inadecuados. En sistemas de justicia criminal predictiva, este sesgo puede ser devastador: si un algoritmo predice reincidencia basándose principalmente en historial criminal sin considerar adecuadamente factores situacionales (pobreza, falta de oportunidades, trauma), perpetúa ciclos de encarcelamiento injusto.

Últimas Noticias

El descenso de nacimientos reduce la matrícula escolar mientras crece la población mayor, un cambio demográfico que desafía el modelo educativo

La tasa de fecundidad se ubica por debajo del nivel de reemplazo en la mayoría de los países de la OCDE, mientras la población mayor crece de forma sostenida. Este cambio obliga a los sistemas educativos a revisar planificación, infraestructura y asignación docente

El descenso de nacimientos reduce

La inteligencia artificial preocupa a expertos por su efecto en estudiantes

Un informe internacional advierte sobre retos inéditos en el aprendizaje, las familias y el futuro escolar de menores en varios continentes

La inteligencia artificial preocupa a

Las habilidades que la IA no puede reemplazar: por qué las empresas las buscan pero todavía no saben evaluarlas

Un informe del World Economic Forum confirma que creatividad, resiliencia y liderazgo son claves en la era de la automatización

Las habilidades que la IA

Dos de cada tres adolescentes usa ChatGPT para resolver sus tareas escolares

Un informe elaborado por Argentinos por la Educación junto a investigadores del MIT revela que dos de cada tres estudiantes recurren a la IA para hacer tareas escolares. Especialistas destacan su potencial para personalizar la enseñanza, pero advierten sobre el desarrollo del pensamiento crítico y la autonomía intelectual

Dos de cada tres adolescentes

Una maestra argentina quedó entre los diez candidatos al premio al mejor docente del mundo

Gloria Cisneros fue seleccionada entre más de 5.000 nominaciones de 139 países para competir por el Global Teacher Prize 2026, dotado con un millón de dólares

Una maestra argentina quedó entre