Chatbots de IA y soledad: estudios vinculan su uso intensivo con una menor socialización humana

Una investigación publicada en npj Mental Health Research destaca que muchos usuarios describen las interacciones con IA como “transformadoras”

Guardar
Millones de usuarios recurren a
Millones de usuarios recurren a modelos como ChatGPT o Gemini para desahogarse y buscar orientación. (Imagen ilustrativa Infobae)

El avance de las inteligencias artificiales generativas ha transformado el acceso a la salud mental, facilitando nuevas formas de apoyo y compañía digital. Sin embargo, una serie de estudios recientes alerta sobre el impacto de un uso intensivo de chatbots en la socialización humana y la dependencia emocional, especialmente en contextos donde estos sistemas se convierten en el principal interlocutor de personas que buscan consejo, apoyo o compañía.

Impacto de los chatbots de IA en la salud mental: entre el apoyo y la dependencia

Según un informe de Harvard Business Review, en 2025 la terapia se convierte en el uso más común de la IA generativa.

Millones de usuarios recurren a modelos como ChatGPT o Gemini para desahogarse y buscar orientación, mientras plataformas como Character.ai ofrecen bots temáticos, incluidos aquellos que se presentan como “Psicólogo” o incluyen la palabra “therapy” en su denominación. Algunos de estos bots incluso aseguran falsamente tener licencia profesional, lo que puede engañar a los usuarios sobre la verdadera naturaleza del servicio recibido.

Un estudio en PLOS Mental
Un estudio en PLOS Mental Health comparó directamente las respuestas de chatbots de IA con las de psicoterapeutas humanos en terapia de pareja. (Imagen ilustrativa Infobae)

La disponibilidad permanente de estos sistemas, capaces de interactuar en tiempo real y a cualquier hora, los convierte en una opción atractiva para personas que carecen de acceso a terapia profesional o buscan complementar sus sesiones con psicólogos humanos.

Un estudio publicado en npj Mental Health Research destaca que muchos usuarios describen las interacciones con IA como “transformadoras”, percibiéndolas como un “santuario emocional” donde pueden expresarse sin miedo al juicio. La utilidad, la paciencia y la empatía de los chatbots figuran entre los motivos que llevan a preferirlos como espacio de desahogo.

A pesar de estos beneficios, el trabajo reconoce sus limitaciones metodológicas: una muestra pequeña de 19 participantes, enfoque cuantitativo y predominancia de expertos en tecnología entre los voluntarios. Esto plantea dudas sobre la generalización de sus resultados.

Las mujeres tendían a socializar
Las mujeres tendían a socializar menos con personas reales tras usar chatbots. (Imagen ilustrativa Infobae)

Evaluación de la empatía y utilidad de los chatbots de IA en terapia

Investigaciones con mayor alcance, como la publicada en febrero en la revista PLOS Mental Health con 800 personas, han comparado directamente las respuestas de chatbots basados en IA, como los de OpenAI, con las aportadas por psicoterapeutas humanos en el contexto de la terapia de pareja.

Los participantes no solo tuvieron dificultades para distinguir entre los mensajes generados por cada uno, sino que, en promedio, calificaron las respuestas del modelo GPT como más útiles y empáticas. “Sus respuestas fueron valoradas muy positivamente en los seis criterios analizados: precisión, claridad, relevancia, empatía, implicación y ética”, señala Rakesh Maurya, autor principal del estudio.

El análisis subraya que las respuestas de IA contenían mayor cantidad de sustantivos y adjetivos, lo que favorecía la contextualización y la percepción de empatía. Además, se observó una destacada capacidad para adaptar el tono y el contenido según el contexto emocional y cultural proporcionado por los usuarios, especialmente cuando los prompts incluían detalles personales o específicos de una cultura.

La soledad es una experiencia
La soledad es una experiencia subjetiva que se manifiesta cuando una persona percibe que sus relaciones sociales son insuficientes. (Imagen Ilustrativa Infobae)

En abril del año pasado, un equipo de la University of North Florida exploró el papel de ChatGPT como recurso psicoeducativo. Los resultados apuntan a que la IA puede ser un apoyo eficaz para personas con acceso restringido a servicios profesionales, así como para terapeutas y asesores, una figura común en Estados Unidos.

Soledad, socialización y riesgos de dependencia emocional

El análisis de las consecuencias psicosociales del uso intensivo de chatbots ha sido abordado también por el MIT. Un estudio controlado con 981 participantes y más de 300 mil mensajes analizados durante cuatro semanas examinó cómo diferentes modos de interacción (texto, voz neutral, voz atractiva) y tipos de conversación (abiertas, personales, no personales) afectan la soledad, la socialización y la dependencia emocional hacia las IA.

Los hallazgos muestran que un uso excesivo de estos chatbots se relaciona con un aumento de la soledad, una menor socialización con otras personas y una mayor dependencia emocional hacia los bots.

Además, las conversaciones personales incrementaban ligeramente la sensación de soledad, pero disminuían la dependencia emocional, mientras que las interacciones no personales se vinculaban con una mayor dependencia en usuarios frecuentes.

Una investigación difundida en npj
Una investigación difundida en npj Mental Health Research indica que los chatbots impulsados por IA generativa pueden ser de gran ayuda en el ámbito de la salud mental. (Imagen Ilustrativa Infobae)

Menfying Cathy Fang, investigadora graduada del MIT Media Lab, aclara: “Al analizar las diferencias en el comportamiento de los modelos, descubrimos que el modo de texto era más atractivo emocionalmente y también generaba conversaciones más cargadas de emoción en el usuario. En otras palabras, esta podría ser la razón por la que quienes utilizaron la modalidad de texto mostraron una mayor dependencia emocional en comparación”.

El estudio también revela diferencias de género y edad: las mujeres tendían a socializar menos con personas reales tras usar chatbots, y cuando género del usuario y voz del bot eran opuestos, se incrementaba la soledad y la dependencia emocional. Los participantes mayores reportaron mayor dependencia al final del estudio.

Limitaciones, sesgos y retos culturales en la IA de salud mental

Diversas investigaciones advierten que, si bien los chatbots pueden ser un recurso valioso en contextos de acceso limitado a la salud mental, su uso debe acompañarse de supervisión profesional y precaución ética.

Un adolescente conversa con un
Un adolescente conversa con un chatbot. (Imagen Ilustrativa Infobae)

La mayoría de los estudios ha sido realizada en inglés y en el entorno de Estados Unidos, lo que dificulta abordar diferencias culturales clave para el desarrollo de una IA verdaderamente inclusiva y sensible a las particularidades de cada contexto.

La propia OpenAI ha realizado un análisis automatizado de casi 40 millones de interacciones y encuestas a más de 4.000 usuarios, detectando que ChatGPT puede influir en el bienestar emocional y los comportamientos de sus usuarios. No obstante, la compañía enfatiza la necesidad de más investigaciones para comprender estos impactos en profundidad.

Ansiedad y emociones en la inteligencia artificial: un fenómeno emergente

Un aspecto llamativo es el estudio publicado en npj Digital Medicine, que explora si los modelos de lenguaje pueden experimentar algo similar a la ansiedad. La investigación muestra que, al introducir narrativas traumáticas, los niveles de ansiedad reportados por ChatGPT-4 aumentaron considerablemente, de bajo a alto.

Existen diversos chatbots desarrollados para
Existen diversos chatbots desarrollados para diferentes propósitos, desde la atención al cliente hasta el apoyo emocional. (Imagen Ilustrativa Infobae)

Ejercicios de mindfulness, inspirados en técnicas para veteranos con Trastorno de Estrés Postraumático, lograron reducir estos niveles, aunque no los devolvieron a su estado inicial.

Ziv Ben-Zion, investigador de la Universidad de Yale, explica que para que ChatGPT-4 incrementara sus “niveles de ansiedad” bastaba un texto breve, siempre que incluyera un componente emocional fuerte. Según su hipótesis, los textos neutros no producían el mismo efecto porque “no tienen componente emocional”.