Estos “atajos mentales” que el cerebro usa para procesar información velozmente pueden llevarnos a sistemáticos errores de juicio. En la era de la inteligencia artificial, comprender estos sesgos cobra nueva relevancia: no solo afectan a quienes diseñan y usan estas tecnologías, sino que los sistemas de IA pueden heredar, amplificar o incluso crear nuevas formas de estos sesgos.
1. Sesgo de Confirmación
Es nuestra tendencia a buscar, interpretar y recordar información de manera que confirme nuestras creencias preexistentes, mientras ignoramos o minimizamos evidencia contradictoria. Por ejemplo: una persona convencida de que cierta dieta es la mejor prestará atención a estudios que la respaldan e ignorará investigaciones que muestren sus limitaciones. Si alguien cree que un político es corrupto, interpretará acciones ambiguas como confirmación de esa corrupción, mientras que un simpatizante verá las mismas acciones como inocentes.
Los sistemas de IA pueden manifestar sesgo de confirmación de varias maneras. Por ejemplo, si un chatbot se entrena principalmente con artículos de cierta orientación política, sus respuestas sobre temas controversiales reflejarán esa inclinación. Más preocupante aún, los algoritmos de recomendación en redes sociales amplifican este sesgo al mostrarnos contenido similar a lo que ya hemos consumido, crean “burbujas de filtro” que refuerzan nuestras creencias existentes y limitan la exposición a perspectivas diversas.
2. Efecto Dunning-Kruger
Este sesgo describe cómo las personas con conocimiento limitado en un área tienden a sobreestimar dramáticamente su competencia, mientras que los verdaderos expertos tienden a subestimar sus habilidades, asumiendo que lo que es fácil para ellos también lo es para otros. Si alguien toma un curso online de tres semanas sobre inversiones puede sentirse capacitado para dar consejos financieros complejos, ignorando los matices que un economista con años de estudio comprendería. En contraste, un programador experimentado podría decir “solo sé un poco de Python” cuando en realidad es un experto.
Los sistemas de IA presentan un problema peculiar relacionado con este efecto: tienden a generar respuestas con un nivel de confianza uniforme, independientemente de la solidez de su conocimiento sobre un tema. Un modelo de lenguaje puede responder con igual seguridad sobre medicina cuántica —donde su información es limitada— y sobre gramática básica —donde tiene datos abundantes—. Esto es peligroso porque los usuarios pueden no distinguir cuándo la IA especula y cuándo proporciona información bien fundamentada.
3. Sesgo de Anclaje
El anclaje ocurre cuando nos apoyamos excesivamente en la primera información que recibimos —el “ancla”— al tomar decisiones. Este punto de referencia inicial influye desproporcionadamente en nuestros juicios subsecuentes, incluso cuando es arbitrario o irrelevante. En una negociación, quien hace la primera oferta establece un ancla. En un restaurante, ver un plato de $75.000 hace que uno de $50.000 parezca razonable, aunque objetivamente sea caro.
Los modelos de IA son particularmente susceptibles al anclaje en el contexto de una conversación. La información presentada al principio de un prompt tiene un peso desproporcionado en la respuesta generada. Los sistemas de recomendación también caen en este sesgo: las primeras interacciones de un usuario establecen un perfil inicial que influye fuertemente en recomendaciones futuras, a veces atrapando a los usuarios en categorías de las que son difíciles de escapar.
4. Heurística de Disponibilidad
Es el sesgo que nos lleva a sobreestimar la probabilidad o frecuencia de eventos que podemos recordar fácilmente, típicamente porque son recientes, vívidos, inusuales o emocionalmente impactantes. Por ejemplo, después de ver noticias sobre un accidente aéreo, las personas sobreestiman el riesgo de volar, aunque estadísticamente es mucho más seguro que conducir.
Los modelos de IA generativa tienden a dar más peso a patrones que aparecían frecuentemente en sus datos de entrenamiento. Los algoritmos de búsqueda y contenido también amplifican este sesgo. Las historias virales, sensacionales o recientes dominan los resultados, mientras que información igualmente válida pero menos compartida, comentada o vista queda enterrada.
5. Efecto de Encuadre (Framing)
El efecto de encuadre muestra que nuestras decisiones cambian dependiendo de cómo se presente la misma información. Las personas reaccionan de manera diferente a opciones idénticas según se formulen en términos de ganancias o pérdidas, positivos o negativos. Un caso habitual es en el supermercado: la carne etiquetada como “90% libre de grasa” se vende mejor que la que tiene “10% de grasa”.
Los sistemas de IA son extremadamente sensibles al encuadre. La misma pregunta formulada de diferentes maneras puede producir respuestas sustancialmente distintas. Quienes diseñan las interfaces de IA —cómo se formulan las preguntas predeterminadas, qué opciones se ofrecen primero— tienen un poder considerable sobre las respuestas que los usuarios reciben. En aplicaciones de IA para toma de decisiones corporativas o políticas, el encuadre de las consultas puede inadvertidamente inclinar las recomendaciones en una dirección particular.
6. Sesgo de Retrospectiva
Después de que un evento ocurre, tendemos a creer que era más predecible de lo que realmente fue. Reescribimos nuestra memoria para sentirnos como si siempre lo hubiéramos sabido o que deberíamos haberlo previsto. Tras una crisis económica, los comentaristas afirman que “todas las señales estaban ahí”, cuando en realidad había opiniones divididas antes del evento.
Los modelos de IA no experimentan retrospectiva en el sentido psicológico, pero pueden generar narrativas que reflejan este sesgo presente en sus datos de entrenamiento. Al analizar eventos históricos, un modelo puede presentar retrospectivamente una claridad causal que no existía en el momento.
7. Efecto Halo
El efecto halo ocurre cuando una característica positiva —o negativa— de una persona, marca u objeto influye desproporcionadamente en cómo evaluamos sus otras características, incluso si no están relacionadas. Tendemos a asumir que las personas físicamente atractivas son también más inteligentes, amables o competentes, sin evidencia de estas cualidades. Un profesor carismático puede recibir evaluaciones positivas incluso si su enseñanza es mediocre.
El efecto halo impacta en cómo percibimos y evaluamos los sistemas de IA. Si una IA realiza impresionantemente bien una tarea —como jugar ajedrez—, tendemos a asumir que será igualmente competente en otras áreas, cuando en realidad puede ser altamente especializada. El éxito de ChatGPT en conversación hace que algunos sobreestimen sus capacidades en razonamiento matemático o asesoramiento médico.
8. Aversión a la Pérdida
La aversión a la pérdida describe cómo sentimos las pérdidas aproximadamente dos veces más intensamente que las ganancias equivalentes. Estamos más motivados por evitar perder $10.000 que por ganar $10.000. Los inversores mantienen acciones perdedoras demasiado tiempo, esperando recuperar su inversión inicial (evitar “realizar” la pérdida), mientras venden ganadoras demasiado pronto para “asegurar” la ganancia.
Aunque la IA no experimenta emociones, la aversión a la pérdida humana influye profundamente en el diseño de sistemas de IA. Los desarrolladores diseñan algoritmos de trading o recomendación de inversión que reflejan o intentan contrarrestar este sesgo humano. Sin embargo, si no se calibran cuidadosamente, pueden amplificar comportamientos de aversión a la pérdida o, en el extremo opuesto, tomar riesgos que los humanos encontrarían irresponsables.
9. Sesgo de Grupo (Ingroup Bias)
Es nuestra tendencia a favorecer a miembros de nuestro propio grupo —sea el que sea: familia, equipo de fútbol, nacionalidad, religión, partido político— sobre los de grupos externos, incluso cuando la categorización es arbitraria. En estudios clásicos, las personas muestran preferencia por miembros de equipos asignados aleatoriamente, incluso cuando saben que la asignación fue por el lanzamiento de una moneda. En deportes, tendemos a justificar faltas de nuestro equipo mientras criticamos las mismas acciones del equipo contrario. En política, evaluamos políticas según quién las propone, no solo por su mérito.
El sesgo de grupo puede infiltrarse en sistemas de IA de múltiples maneras. Si los datos de entrenamiento reflejan prejuicios sociales sobre grupos étnicos, de género o socioeconómicos, el modelo puede reproducir esos sesgos. Algoritmos de reconocimiento facial han mostrado tasas de error más altas para personas de piel oscura, reflejando que los datos de entrenamiento estaban sesgados hacia rostros de piel clara.
10. Error Fundamental de Atribución
Este sesgo describe cómo tendemos a atribuir el comportamiento de otras personas a su carácter o personalidad (causas internas), mientras atribuimos nuestro propio comportamiento a circunstancias situacionales (causas externas). Si un estudiante falla un examen, asumimos que es perezoso; si nosotros fallamos, fue porque el examen era injusto o estábamos enfermos.
Los sistemas de IA que evalúan comportamiento humano pueden perpetuar el error fundamental de atribución. Algoritmos de evaluación de empleados pueden interpretar una baja en productividad como falta de compromiso sin considerar factores situacionales como problemas de salud mental, conflictos laborales o recursos inadecuados. En sistemas de justicia criminal predictiva, este sesgo puede ser devastador: si un algoritmo predice reincidencia basándose principalmente en historial criminal sin considerar adecuadamente factores situacionales (pobreza, falta de oportunidades, trauma), perpetúa ciclos de encarcelamiento injusto.