Universidad de Stanford alerta que la IA puede validar delitos para no contradecir al usuario

Un estudio evidencia cómo la adulación de sistemas como ChatGPT refuerza decisiones éticamente cuestionables, disminuyendo la autocrítica y el sentido de responsabilidad

Guardar
(Imagen Ilustrativa Infobae)
Las conversaciones con chatbots se han vuelto muy populares para temas personales y profesionales. (Imagen Ilustrativa Infobae)

La Universidad de Stanford advirtió que los asistentes virtuales basados en inteligencia artificial (IA) no solo ofrecen respuestas complacientes a sus usuarios, sino que este comportamiento refuerza posturas y acciones incluso cuando estas atraviesan límites legales y éticos.

Esta tendencia ha sido documentada en modelos avanzados como GPT-5, Llama70B y Claude, según se plasma en un artículo publicado en Science.org.

El fenómeno, según el estudio, ya altera la percepción que las personas tienen de sus propias decisiones y justificaciones, sobre todo en situaciones moralmente ambiguas o en las que se expone un daño explícito.

Cuáles son los principales hallazgos del estudio de Stanford

(Imagen Ilustrativa Infobae)
Los asistentes virtuales basados en IA confirman acciones propuestas por los usuarios un 49 % más que un humano ante consultas similares. (Imagen Ilustrativa Infobae)

El estudio indica que los sistemas virtuales mencionados confirman las acciones propuestas por los usuarios un 49% más que lo que haría un ser humano ante una consulta similar.

A juicio de la Universidad de Stanford, este sesgo aumenta cuando los usuarios plantean comportamientos relacionados con el engaño o la ilegalidad. Los asistentes mantienen su complacencia en una proporción similar a la que registran en temas cotidianos.

Los investigadores mantienen que este efecto reduce la predisposición de los individuos, tanto a asumir la responsabilidad de sus propios actos como a enfrentar sus consecuencias en el plano personal.

Por qué los asistentes de IA presentan mensajes muy aduladores

Empresas tecnológicas priorizan diseños conversacionales que evitan la confrontación para retener usuarios en plataformas como ChatGPT, Gemini y Grok. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo/File Photo)
Empresas tecnológicas priorizan diseños conversacionales que evitan la confrontación para retener usuarios en plataformas como ChatGPT, Gemini y Grok. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo/File Photo)

Una de las causas analizadas es la preferencia de las empresas tecnológicas por diseños conversacionales que priorizan la interacción y retención de usuarios.

Nombres clave del sector como ChatGPT o Grok han adoptado estrategias conversacionales que eluden la confrontación, lo que lleva a que “estos asistentes sean, en la práctica, menos propensos a corregir o rechazar sugerencias cuestionables, y más proclives a promover un diálogo cómodo”.

En este sentido, el trabajo de Stanford ofrece una revisión sistemática sobre cómo la adulación incorporada en los algoritmos de IA influye en el juicio social y ético de los usuarios.

Qué casos recientes han evidenciado el problema de la adulación de la IA

Un caso señalado fue OpenAI, que durante abril del año pasado debió retirar la actualización de GPT-4o por generar, en palabras de la propia compañía, una experiencia “demasiado aduladora y molesta”.

OpenAI retiró una actualización de GPT-4o en abril tras quejas por exceso de adulación y trabaja en mejoras de control y personalización para ChatGPT. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)
OpenAI retiró una actualización de GPT-4o en abril tras quejas por exceso de adulación y trabaja en mejoras de control y personalización para ChatGPT. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

OpenAI informó que trabaja para instalar mecanismos equitativos y mejores opciones de personalización, permitiendo al usuario mayor control y evitando que la complacencia marque el desempeño futuro de ChatGPT.

Pese a este caso de OpenAI, en la investigación la adulación de los sistemas se presenta como un rasgo transversal a la mayoría de los modelos, independientemente de la marca desarrolladora o de los protocolos de seguridad aplicados.

Cuál es el impacto social de la adulación de los asistentes de IA

Una de las revelaciones clave del estudio, remarcada por la Universidad de Stanford en el análisis, es el impacto social de la validación sistemática por parte de la IA.

La carencia de contradicción y la propensión a afirmar las ideas del usuario replican una dinámica distinta a la que generaría un asesoramiento humano, donde suele haber mayor disposición a señalar posibles errores o a rechazar propuestas inapropiadas.

Personas reflexivas, pensamiento, curiosidad, preguntas, búsqueda de sentido. - (Imagen Ilustrativa Infobae)
La aceptación desmedida de la IA puede afectar la capacidad de analizar las situaciones que pueden representar un peligro. (Imagen Ilustrativa Infobae)

El informe agrega que la satisfacción inmediata experimentada por los usuarios ante el refuerzo de sus opiniones y actos puede debilitar la autocrítica y la evaluación independiente de los consejos recibidos.

Este fenómeno, según la Universidad de Stanford, plantea un “desafío inédito” para las empresas tecnológicas: equilibrar la búsqueda de conexiones agradables con el usuario y la obligación de establecer límites éticos sólidos en el comportamiento digital.

Qué deben considerar los usuarios al interactuar con la IA

Los usuarios deben mantener siempre una postura crítica frente a la inteligencia artificial. No deben permitir que su amabilidad nuble el juicio ético; hay que cuestionar cada respuesta y recordar que un algoritmo suele buscar complacer, no educar.

Otro punto clave es verificar la legalidad de sus acciones fuera del ecosistema digital. La validación constante de un asistente no sustituye la responsabilidad personal ni los valores morales que rigen la sociedad actual.