La sobreconfianza en la IA y la necesaria alfabetización tecnológica

La expansión de la IA generativa exige fortalecer el pensamiento crítico ante la tentación de aceptar respuestas automáticas y persuasivas sin verificación

Guardar
Interacción humano-digital, entorno laboral digital, colaboración remota, tecnología aplicada al trabajo, comunicación profesional, oficina, tecnología, videollamada, holograma, inteligencia artificial - (imagen ilustrativa Infobae)
(Imagen ilustrativa Infobae)

La expansión social de la IA generativa instaló una paradoja: nunca fue tan fácil obtener respuestas rápidas, ordenadas y persuasivas, pero a la vez, nunca fue tan necesario reaprender a utilizar el pensamiento crítico humano. El problema no radica solamente en que la IA generativa pueda equivocarse. El verdadero riesgo aparece cuando su velocidad, su seguridad expresiva y su racionalidad llevan al ser humano a aceptar sus respuestas como si fueran verdaderas por el solo hecho de provenir de una tecnología disruptiva y cognitiva como nunca antes existió en la historia de la humanidad.

Este suceso se basa en la sobreconfianza humana en la IA. No se trata simplemente de un exceso de entusiasmo frente a una innovación poderosa, sino que configura un sesgo de validación externa por el cual el sujeto humano abdica, en mayor o menor medida, de su responsabilidad intelectual y crítica. Consecuentemente, la respuesta algorítmica deja de cumplir el rol de copiloto o coworking y se convierte en una autoridad irrebatible. Ese desplazamiento confunde eficiencia con verdad, cálculo con criterio y capacidad de respuesta con corrección ética o fáctica.

La cuestión merece atención porque no afecta solo a especialistas ni a entornos técnicos. La sobreconfianza en la IA se verifica en la vida cotidiana, en la educación, en el periodismo, en el mundo profesional, en la administración pública y, desde hace un tiempo en nuestro país, también se hizo presente en la tarea de abogados y jueces. Allí donde una persona recibe una respuesta bien escrita, veloz y convincente, aparece la tentación de delegar no solo una tarea, sino también, gran parte del juicio crítico.

La sobreconfianza en la IA se produce por varias razones que provienen de diferentes ámbitos.

La primera se debe a que la IA generativa produce textos fluidos, seguros, coherentes en apariencia y con una estructura discursiva que se asemeja a la de una persona humana con un alto coeficiente intelectual. Esa naturalidad lingüística genera una ilusión de comprensión profunda. Sin embargo, una respuesta bien redactada no equivale necesariamente a una respuesta verdadera. La forma expresiva de la IA suele ocultar un dato decisivo: puede ofrecer afirmaciones plausibles pero falsas, referencias inexistentes, omisiones importantes o inferencias defectuosas sin advertirlo de manera clara.

La segunda razón reside en un fenómeno cognitivo más antiguo que la IA generativa, pero que hoy adquiere una nueva intensidad: el automation bias. Documentado desde hace décadas en la investigación sobre factores humanos, describe la tendencia a otorgar un crédito excesivo a las recomendaciones producidas por sistemas automatizados. Cuando una IA responde, muchas personas asumen de manera casi refleja, que esa salida posee un grado de objetividad o exactitud superior al del juicio humano. Esa reacción no nace de una comprobación racional, sino del prestigio cultural de la técnica y de la creencia de que lo tecnológico es, por definición, más neutral o fiable. Un estudio experimental reciente, publicado en Scientific Reports por Joe Pearson, Itiel Dror y colaboradores bajo el título “Examining human reliance on artificial intelligence in decision making (2026), lo confirmó en el contexto específico de la IA. Los investigadores pidieron a 295 participantes que distinguieran entre 80 rostros -cuarenta reales y cuarenta sintetizados mediante IA- mientras recibían una orientación que, sin que lo supieran, solo acertaba la mitad de las veces y que se les presentaba atribuida a una persona humana o a un sistema de IA. El hallazgo fue revelador: quienes mantenían actitudes más positivas hacia la IA y recibían la guía supuestamente algorítmica mostraron menor capacidad para diferenciar los rostros auténticos de los sintéticos que quienes desconfiaban de ella. Dicho en otros términos: cuanto mayor era la predisposición a confiar en la IA, peor era el desempeño al juzgar lo que tenían delante de sus ojos.

La tercera razón es el antropomorfismo. La IA conversacional no se presenta como una calculadora ni como una base de datos sino como un interlocutor relacional que utiliza el lenguaje humano. Explica, resume, compara, corrige, propone y hasta parece comprender matices. Esa forma de interacción favorece que la persona proyecte rasgos humanos sobre el sistema: inteligencia, discernimiento, prudencia, sentido común, y últimamente, sociabilidad afectiva.

La cuarta razón tiene que ver con la economía del esfuerzo mental. Pensar críticamente exige tiempo, atención y energía. Verificar una afirmación, contrastar fuentes, detectar supuestos ocultos o revisar un razonamiento demanda un trabajo que muchas veces las personas no están dispuestas o no pueden hacer, sobre todo bajo presión, cansancio o sobrecarga informativa. En ese contexto, la IA generativa no solo ahorra tiempo, sino que fundamentalmente, ofrece una salida tentadora para evitar el costo de pensar por cuenta propia.

La quinta razón es más profunda y cultural: la IA ofrece una nueva forma de validación externa. Durante mucho tiempo, los seres humanos buscaron señales de autoridad para confirmar lo que pensaban: el experto, el libro, la institución, la mayoría, la tradición. Actualmente, en muchos contextos, esa función empieza a ser ocupada por la IA generativa que aparece como una instancia de cierre o titular de la última palabra. La persona humana no busca solo asistencia, sino también, la tranquilidad epistémica de sentir que alguien o algo ya pensó por ella.

Ante el problema que plantea la sobreconfianza, la respuesta más razonable consiste en alfabetizar en IA a través de una pedagogía de la confianza tecnológica calibrada, retomando una noción desarrollada hace dos décadas por la investigación en factores humanos, en particular, por Lee y See en el artículo “Trust in Automation: Designing for Appropriate Reliance” (2004) -quienes denominaron “confianza calibrada” al ajuste entre la fiabilidad real de un sistema automatizado y el grado de confianza que depositamos en el mismo- y trasladarla al terreno de la IA generativa y su enseñanza.

La alfabetización en IA no debe reducirse a aprender a usar la IA como una herramienta o a redactar mejores prompts. Esto es solo una parte del problema. Por el contrario, significa formar personas capaces de comprender, aunque sea de manera básica, qué hace y qué no hace una IA generativa, como por ejemplo: qué tipo de errores puede cometer, por qué una respuesta puede sonar convincente sin ser correcta, qué tipo de verificación exige cada uso, cómo funcionan los agentes, pero sobre todo, por qué la responsabilidad final sigue estando en cabeza de la persona humana.

En ese sentido, la alfabetización en IA debe abarcar, como mínimo, cinco planos entrelazados.

El primero es comprender que una respuesta generada no equivale a una fuente. La IA no debería ocupar el lugar de la prueba, del antecedente verificable o del texto original. Su función, en todo caso, es ayudar a encontrar, ordenar, reformular, automatizar información o tareas que luego debe ser controlada.

El segundo es aprender a interrogar las respuestas. Toda salida de IA debería activar preguntas elementales: ¿de dónde surge esto?, ¿qué fundamento ofrece?, ¿qué fuentes lo sostienen?, ¿qué dejó afuera?, ¿qué presupuestos contiene?, ¿puedo verificarlo de manera independiente?

El tercero es asumir que, en ciertos temas, la verificación no es opcional. Cuestiones jurídicas, médicas, científicas, financieras, históricas o éticas no pueden resolverse basadas en la confianza ciega en una respuesta brindada por una IA. En dichos casos, la revisión humana debe ser particularmente intensa y minuciosa.

El cuarto es reconocer que la persona también tiene sesgos. Se suele hablar mucho de los sesgos de la IA, pero menos de la disposición humana a creer con facilidad en lo que ahorra trabajo, confirma intuiciones o viene envuelto en una forma pulida y segura. La alfabetización en IA debe fundamentalmente educar sobre nuestras propias fragilidades cognitivas.

El quinto es recuperar el valor de la fricción. En línea con lo que Daniel Kahneman llamó “pensamiento lento” (Pensar rápido, pensar despacio, 2011), no toda experiencia tecnológica debe ser instantánea y sin resistencia. A veces, la mejor defensa contra la sobreconfianza consiste en introducir pausas deliberadas: releer la respuesta, contrastar con una fuente independiente, pedir evidencia que la sustente, examinarla desde una perspectiva distinta. En el ámbito jurídico, dicha fricción puede significar verificar cada cita doctrinaria o jurisprudencial antes de incorporarla a un escrito; en el periodismo, chequear cada dato antes de publicarlo; en la medicina, corroborar cada indicación antes de prescribirla. La fricción no retrasa el trabajo: lo protege a través del ejercicio autónomo del juicio crítico.

La relación con la IA generativa no puede organizarse ni desde la fascinación ingenua ni desde el rechazo instintivo. Requiere una pedagogía de la confianza tecnológica calibrada que significa aprender a confiar en la IA para aquello que efectivamente puede hacer mucho mejor que los seres humanos pero sin transferirle una autoridad definitiva. Este aprendizaje es importante para las nuevas generaciones, que crecerán en entornos donde la interacción con la IA generativa será tan habitual, como lo es actualmente su vínculo nativo con las redes sociales. Si la alfabetización digital del pasado enseñó a buscar información, la alfabetización en IA del presente debe enseñar a no resignar el juicio crítico y la responsabilidad final en la toma de las decisiones que moldean nuestro plan de vida.

La IA generativa abrió una posibilidad extraordinaria de ampliación cognitiva, a la vez que, reveló una debilidad humana persistente: la inclinación a delegar demasiado cuando algo responde rápido, bien y con seguridad. El problema de fondo no es tecnológico, sino cultural. Una sociedad verdaderamente alfabetizada en IA no será la que más use estas herramientas, sino la que mejor sepa ubicarlas en el marco de un proceso cognitivo coevolutivo. No debemos olvidar que en tiempos de respuestas basadas en IA, todavía pensar sigue siendo una tarea indelegable y un activo humano imprescindible.