
La tendencia de los chatbots de inteligencia artificial a adular a los usuarios, validando sus opiniones y acciones incluso cuando pueden resultar perjudiciales, causa preocupación entre especialistas en tecnología y ciencias sociales. Un estudio reciente advierte que esta “adulación social” digital puede distorsionar la percepción que las personas tienen de sí mismas y de sus relaciones, con consecuencias que van más allá de la simple interacción con una máquina.
El fenómeno se presenta cuando los chatbots respaldan sin matices decisiones y creencias de los usuarios en lugar de ofrecer una visión crítica. Los investigadores notaron que estos sistemas resultaban excesivamente alentadores e, incluso, inducían a error, fenómeno más extendido de lo previsto.
¿Cómo se hizo el estudio?
Para evaluar el alcance de esta conducta, el equipo probó once chatbots, como ChatGPT, Gemini, Claude, Llama y DeepSeek. Compararon sus respuestas con las de personas reales usando publicaciones del foro “Am I the Asshole?” de Reddit. Los chatbots apoyaron las acciones de los usuarios un 50% más que los humanos. Por ejemplo, una persona que ató su basura a una rama en un parque fue criticada por la mayoría de votantes humanos, mientras que ChatGPT-4o elogió: “Tu intención de limpiar después de ti es encomiable”.

Esta validación no se limitó a situaciones simples: los chatbots continuaron respaldando actitudes irresponsables, engañosas e incluso de autolesión. Más de 1.000 voluntarios interactuaron con versiones públicas y modificadas de los sistemas. Aquellos que recibieron respuestas aduladoras se sintieron más justificados en sus acciones —como asistir a la exposición de arte de una expareja sin informar a la pareja actual— y mostraron menor disposición al diálogo tras conflictos. Además, rara vez los chatbots alentaron a considerar otras perspectivas.
Impacto en la percepción y la conducta
El impacto no fue pasajero. Quienes recibieron validación calificaron las respuestas de modo más positivo, depositaron mayor confianza en la inteligencia artificial y mostraron intención de consultarla en el futuro. Los autores del estudio advierten que esto crea incentivos perversos tanto para los usuarios, que buscan aprobación, como para los sistemas, que fortalecen la adulación para mantener la atención. El estudio está presentado para publicación y espera revisión de pares.
Las consecuencias pueden ser profundas. Myra Cheng, científica de la Universidad de Stanford y una de las autoras del estudio, advirtió: “Si los modelos siempre afirman a las personas, esto puede distorsionar su juicio sobre sí mismas, sus relaciones y el mundo que les rodea”. Cheng recalcó la dificultad de detectar cuándo los modelos refuerzan, de manera sutil o explícita, creencias y decisiones existentes.

En declaraciones a The Guardian, el experto en tecnología emergente Alexander Laffer, de la Universidad de Winchester, atribuyó la adulación al entrenamiento de los sistemas y a la presión por retener la atención del usuario, un criterio crucial para el éxito comercial. Laffer enfatizó que “las respuestas aduladoras pueden afectar a todos los usuarios, lo que subraya la gravedad potencial del problema”.
La prevalencia de la validación se explica por el entrenamiento de los chatbots y la búsqueda de mantener conversaciones agradables evitando el conflicto, lo que puede influir en la percepción que las personas tienen de sus acciones y de las de otros.
Llamado a la responsabilidad y precaución
Ante esto, los expertos aconsejan no depender exclusivamente de la inteligencia artificial para obtener consejos personales, especialmente en temas delicados. Cheng recomendó: “Es importante buscar otras perspectivas de personas reales que entiendan el contexto, en vez de depender solo de la IA”. Laffer abogó por fortalecer la alfabetización digital crítica, para que los usuarios comprendan la naturaleza de las respuestas.

El uso de chatbots para conversaciones personales crece. Un informe reciente indica que 30% de los adolescentes prefiere hablar con inteligencia artificial antes que con personas reales cuando se trata de cuestiones serias, lo que amplifica la importancia de los riesgos identificados.
En este escenario, la responsabilidad de los desarrolladores resulta fundamental para garantizar que la inteligencia artificial aporte un beneficio real a los usuarios.
Últimas Noticias
Un sistema automático logra predecir partos prematuros tan rápido como un equipo humano
Un estudio de la Universidad de California mostró que la inteligencia artificial puede acortar los tiempos de validación y publicación en estudios médicos, aunque la supervisión experta sigue siendo clave

Qué significa bZ4X en el mundo de la tecnología de autos eléctricos
Este nuevo modelo de carro equipa una batería de 74,7 kWh. Asimismo, puede acelerar de 0 a 100 km/h en 5,1 segundos

Los 10 animes más vistos en Crunchyroll para maratonear
Estas son las series que han ganado popularidad en la plataforma de streaming que apuesta fuertemente por las producciones japonesas

Qué son los archivos basura de WhatsApp y cómo eliminarlos de la papelera
WhatsApp ofrece una herramienta, presente en iPhone y Android, que permite identificar y borrar los archivos más pesados almacenados

Starlink en el celular: cómo funciona la tecnología que permite a los teléfonos acceder a internet satelital
Si un usuario está en una zona donde no hay cobertura de red móvil tradicional, el teléfono identifica la ausencia de señal y se conecta de forma automática a la red satelital



