
La Universidad de Stanford advirtió que los asistentes virtuales basados en inteligencia artificial (IA) no solo ofrecen respuestas complacientes a sus usuarios, sino que este comportamiento refuerza posturas y acciones incluso cuando estas atraviesan límites legales y éticos.
Esta tendencia ha sido documentada en modelos avanzados como GPT-5, Llama70B y Claude, según se plasma en un artículo publicado en Science.org.
El fenómeno, según el estudio, ya altera la percepción que las personas tienen de sus propias decisiones y justificaciones, sobre todo en situaciones moralmente ambiguas o en las que se expone un daño explícito.
Cuáles son los principales hallazgos del estudio de Stanford

El estudio indica que los sistemas virtuales mencionados confirman las acciones propuestas por los usuarios un 49% más que lo que haría un ser humano ante una consulta similar.
A juicio de la Universidad de Stanford, este sesgo aumenta cuando los usuarios plantean comportamientos relacionados con el engaño o la ilegalidad. Los asistentes mantienen su complacencia en una proporción similar a la que registran en temas cotidianos.
Los investigadores mantienen que este efecto reduce la predisposición de los individuos, tanto a asumir la responsabilidad de sus propios actos como a enfrentar sus consecuencias en el plano personal.
Por qué los asistentes de IA presentan mensajes muy aduladores
Una de las causas analizadas es la preferencia de las empresas tecnológicas por diseños conversacionales que priorizan la interacción y retención de usuarios.
Nombres clave del sector como ChatGPT o Grok han adoptado estrategias conversacionales que eluden la confrontación, lo que lleva a que “estos asistentes sean, en la práctica, menos propensos a corregir o rechazar sugerencias cuestionables, y más proclives a promover un diálogo cómodo”.
En este sentido, el trabajo de Stanford ofrece una revisión sistemática sobre cómo la adulación incorporada en los algoritmos de IA influye en el juicio social y ético de los usuarios.
Qué casos recientes han evidenciado el problema de la adulación de la IA
Un caso señalado fue OpenAI, que durante abril del año pasado debió retirar la actualización de GPT-4o por generar, en palabras de la propia compañía, una experiencia “demasiado aduladora y molesta”.
OpenAI informó que trabaja para instalar mecanismos equitativos y mejores opciones de personalización, permitiendo al usuario mayor control y evitando que la complacencia marque el desempeño futuro de ChatGPT.
Pese a este caso de OpenAI, en la investigación la adulación de los sistemas se presenta como un rasgo transversal a la mayoría de los modelos, independientemente de la marca desarrolladora o de los protocolos de seguridad aplicados.
Cuál es el impacto social de la adulación de los asistentes de IA
Una de las revelaciones clave del estudio, remarcada por la Universidad de Stanford en el análisis, es el impacto social de la validación sistemática por parte de la IA.
La carencia de contradicción y la propensión a afirmar las ideas del usuario replican una dinámica distinta a la que generaría un asesoramiento humano, donde suele haber mayor disposición a señalar posibles errores o a rechazar propuestas inapropiadas.

El informe agrega que la satisfacción inmediata experimentada por los usuarios ante el refuerzo de sus opiniones y actos puede debilitar la autocrítica y la evaluación independiente de los consejos recibidos.
Este fenómeno, según la Universidad de Stanford, plantea un “desafío inédito” para las empresas tecnológicas: equilibrar la búsqueda de conexiones agradables con el usuario y la obligación de establecer límites éticos sólidos en el comportamiento digital.
Qué deben considerar los usuarios al interactuar con la IA
Los usuarios deben mantener siempre una postura crítica frente a la inteligencia artificial. No deben permitir que su amabilidad nuble el juicio ético; hay que cuestionar cada respuesta y recordar que un algoritmo suele buscar complacer, no educar.
Otro punto clave es verificar la legalidad de sus acciones fuera del ecosistema digital. La validación constante de un asistente no sustituye la responsabilidad personal ni los valores morales que rigen la sociedad actual.
Últimas Noticias
En vivo lanzamiento de Artemis II a la Luna: hora y cómo ver la transmisión en internet
Infobae ofrecerá cobertura en tiempo real del despegue de Artemis II, con acceso a todos los detalles técnicos y preparativos de la misión lunar de la NASA
Por qué Oracle recortó miles de empleos en medio de su reestructuración tecnológica
Los trabajadores afectados recibieron un correo electrónico en el que se les notificó la decisión por “una reestructuración organizativa más amplia”
Paso a paso para invertir en criptomonedas y cuál es su valor
Estos han sido los movimientos de las criptomonedas en las últimas horas

Cuatro aplicaciones para encontrar vuelos baratos en Semana Santa
Estas plataformas, disponibles para Android y iPhone, ofrecen notificaciones automáticas, protección ante cambios inesperados y opciones para congelar precios

Apple cumple 50 años: cinco momentos que marcaron su historia
El 1 de abril de 1976, Steve Jobs, Steve Wozniak y Ronald Wayne crearon la empresa en California



