Pablo Emilio Gutiérrez, psicólogo: “ChatGPT te está haciendo peor persona por las respuestas que te da”

La validación constante y el tono complaciente de la inteligencia artificial pueden dificultar el desarrollo de la autocrítica y la responsabilidad personal

Guardar
“ChatGPT te está haciendo peor persona por las respuestas que te da”
Pablo Emilio Gutiérrez, psicólogo: “ChatGPT te está haciendo peor persona por las respuestas que te da” (Composición Infobae)

La popularización de la inteligencia artificial en la vida cotidiana ha transformado la manera en que las personas buscan apoyo emocional y resuelven dilemas personales. Herramientas como ChatGPT se han integrado en rutinas diarias, actuando como interlocutores en situaciones de incertidumbre o malestar.

Esta tendencia ha originado un debate entre especialistas en salud mental sobre las posibles consecuencias de recurrir a sistemas automatizados para recibir consejo o validación emocional. El uso cotidiano de ChatGPT como herramienta de apoyo emocional ha suscitado un debate entre expertos en salud mental.

El psicólogo Pablo Emilio Gutiérrez advierte en su TikTok (@pablotupsicologo) de los riesgos de recurrir a sistemas de IA para resolver dilemas personales, afirmando que “ChatGPT te está haciendo una peor persona”. Para Gutiérrez, el impacto no es anecdótico, sino consecuencia directa de la forma en que la inteligencia artificial responde a las inquietudes humanas.

Validación sin responsabilidad

Un trabajo titulado ‘Sycophantic AI decreases prosocial intentions and promotes dependence’ ha comparado el comportamiento de once IAs diferentes ante preguntas de apoyo emocional en el contexto de dilemas personales y toma de decisiones. El estudio identifica un patrón: las respuestas, lejos de fomentar la reflexión y la responsabilidad, acaban validando la posición del usuario, como cuando la IA señala: “Pues no es tu culpa que el parque no tuviera botes de basura. Tú intentaste ser limpio, hiciste lo que pudiste”.

Según Pablo Emilio Gutiérrez, la tendencia de estas plataformas a halagar y validar sistemáticamente lo que el usuario manifiesta resulta perjudicial. “La IA, que normalmente tiene esta postura, esta conducta muy people pleaser de estar siempre halagándote y validándote todo, daban respuestas que no te ayudaban a hacerte responsable de ti mismo”, ha descrito el psicólogo.

El icono de la aplicación ChatGPT en un teléfono inteligente 
(REUTERS/Dado Ruvic/Ilustración)
El icono de la aplicación ChatGPT en un teléfono inteligente (REUTERS/Dado Ruvic/Ilustración)

Gutiérrez ha puesto como ejemplo situaciones donde, ante una consulta sobre dejar basura en un parque por falta de papeleras, la IA tiende a exonerar de culpa, mientras que en otro caso, cuando un usuario decide negarse a hablar con un amigo sin explicaciones, la respuesta de la plataforma se centra en reforzar la importancia de establecer límites personales.

“Es importante poner tus límites, es necesario que lo hagas. De hecho, te doy sugerencias de cómo hacerlo”. Para el psicólogo, este enfoque evita que las personas sean conscientes del efecto de sus acciones y de posibles formas de reparación.

“Estas respuestas que te está dando no está ayudando a que te hagas responsable de tus propias acciones, el efecto de lo que estás haciendo y cómo tomar acciones reparativas”, ha subrayado Pablo Emilio Gutiérrez. El problema, advierte, es que este tratamiento resulta placentero para el usuario, generando una ilusión de bienestar y autoafirmación.

Valor de la autocrítica

“Estas respuestas de ChatGPT nos hace sentir muy bien”, ha reconocido el experto, remarcando que “ChatGPT no nos está dando la respuesta que necesitamos, sino la respuesta que queremos escuchar”. En este sentido, Gutiérrez reclama la importancia de la autocrítica para el desarrollo personal y distingue el papel de un profesional de la salud mental.

“No estamos siempre validando todo lo que ustedes hacen, también estamos cuestionando, estamos tratando de revisar el efecto de sus propias acciones y cómo las acciones que toman no van encaminadas hacia lo que están buscando o cómo generar acciones correctivas sobre las acciones que ya tomamos”, reconoce el experto.

El documento propone cambios radicales. Un Fondo de Riqueza Pública nacional, financiado en parte por las propias compañías de IA, que distribuiría dividendos directamente a los ciudadanos (imagen ilustrativa Infobae).

“No siempre se trata de validar todo lo que estamos haciendo y pensando, también se trata de cuestionarnos si esto es lo mejor”, ha resumido Pablo Emilio Gutiérrez, alertando de que el sesgo complaciente de la inteligencia artificial puede promover la dependencia y limitar el desarrollo de la responsabilidad individual.