UNAM advierte de los riesgos por usar a la IA como terapia

Un creciente número de personas recurre a sistemas digitales para gestionar malestar psicológico y búsqueda de orientación

Guardar
Más del 70 % de
Más del 70 % de los adolescentes utiliza aplicaciones de inteligencia artificial, con la mitad buscándolas específicamente para apoyo emocional. (Imagen Ilustrativa Infobae)

De acuerdo con UNAM Global, en las últimas semanas, el uso de inteligencia artificial como sustituto de la terapia psicológica ha registrado niveles inéditos, dado que cada vez más personas la emplean para afrontar problemas emocionales, regular su malestar o simplemente sentirse escuchadas.

El debate sobre la pertinencia y los límites de esta práctica pone de relieve no solo el avance tecnológico, sino, sobre todo, una transformación profunda en la forma en que nos relacionamos con el sufrimiento y la ayuda psicológica profesional.

Esta tendencia tiene implicaciones inmediatas en la manera en que la sociedad concibe la salud mental, según analiza Alejandro Rodríguez Fuentes, psicoanalista y académico de la Facultad de Ingeniería de la Universidad Nacional Autónoma de México (UNAM), citado por UNAM Global.

De acuerdo con estimaciones recientes informadas por UNAM Global, los chatbots cuentan actualmente con cerca de 700 millones de usuarios semanales en todo el mundo. Este fenómeno es especialmente notorio entre los jóvenes: el 13% de los adolescentes de 12 a 17 años afirma utilizar IA para recibir consejos sobre salud mental, y entre los 18 y 21 años el porcentaje asciende a 22%. Además, más del 70% de los adolescentes declara emplear aplicaciones de IA, de los cuales más de la mitad lo hace específicamente para buscar apoyo emocional.

Las investigaciones consultadas por UNAM Global muestran que el empleo de estos sistemas como apoyo emocional suele asociarse con una reducción leve a moderada del malestar y una percepción aumentada de acompañamiento. Este fenómeno, según el medio, sorprende porque, “paradójicamente, entre más conectados estamos, más solos nos sentimos”.

La IA no confronta ni cuestiona, funciona bajo la lógica del “cliente tiene la razón”

La inteligencia artificial prioriza la
La inteligencia artificial prioriza la satisfacción del usuario, aplicando una lógica de consumo y evitando confrontación o fricción, a diferencia de la terapia clínica. (Imagen Ilustrativa Infobae)

El impulso para recurrir a la IA como espacio de desahogo reside en su disponibilidad continua, su respuesta inmediata y la ausencia de confrontación o juicio.

Rodríguez Fuentes explicó en UNAM Global que, a diferencia del proceso terapéutico, la inteligencia artificial “no introduce fricción, no confronta ni exige adaptación; se adapta al usuario”. Ese ajuste automático responde, según el académico, a una lógica de consumo en la que el usuario es tratado como cliente y su satisfacción es prioritaria.

En ese sentido, “la IA funciona bien porque trata el sufrimiento como una experiencia a optimizar y al interlocutor como un usuario a satisfacer”. La comodidad proviene de la eliminación de toda exigencia: “con la IA no hay alteridad: no quiere nada de nosotros”. Esto contrasta con el encuentro terapéutico, donde el paciente debe gestionar la presencia del otro, enfrentando el miedo al juicio y la incomodidad propias del proceso clínico.

Beneficios y riesgos de usar a la IA como terapia emocional

El 37 % de los
El 37 % de los adultos ha empleado IA para apoyo emocional, con riesgos de dependencia, aislamiento y retraso en la búsqueda de ayuda profesional idónea. (Imagen Ilustrativa Infobae)

El uso de IA para el alivio emocional conlleva ventajas y desafíos. Las investigaciones recogidas por UNAM Global describen como beneficios principales una mayor sensación de acompañamiento y una disminución de la soledad, así como la utilidad de la IA en tareas de psicoeducación, al facilitar la comprensión de conceptos como ansiedad, angustia o estrés.

Sin embargo, el potencial daño radica en la falta de límites clínicos y en el riesgo de sustitución indebida. Según UNAM Global, el 37 % de los adultos ha utilizado IA con fines de apoyo emocional, y el 38 % de los usuarios la emplea semanalmente para hablar de temas íntimos.

Este recurso puede, en algunos casos, fomentar la dependencia, el aislamiento y, en situaciones graves como la depresión con riesgo suicida, postergar la búsqueda de asistencia profesional idónea. “La contención que brinda la IA no sustituye la atención clínica, ya que no puede evaluar el riesgo de manera integral ni intervenir en situaciones de emergencia, remarcó Rodríguez Fuentes.

La inteligencia artificial no puede reemplazar la alteridad propia de la relación terapéutica, ni la transferencia emocional que impulsa el proceso de cambio psíquico. “El encuentro con la alteridad es lo que permite que una persona trabaje sobre sí misma”, sostuvo Rodríguez Fuentes. Dentro del psicoanálisis, la transferencia es el mecanismo sobresaliente: el paciente proyecta en el analista aspectos emocionales fundamentales para la evolución clínica, algo inexistente en el intercambio con un chatbot.

“Aunque la IA puede aliviar, jamás elaborará una posición subjetiva profunda. No puede escuchar formaciones del inconsciente ni interpretar los equívocos del lenguaje”, definió el especialista.