
El avance de las inteligencias artificiales generativas ha transformado el acceso a la salud mental, facilitando nuevas formas de apoyo y compañía digital. Sin embargo, una serie de estudios recientes alerta sobre el impacto de un uso intensivo de chatbots en la socialización humana y la dependencia emocional, especialmente en contextos donde estos sistemas se convierten en el principal interlocutor de personas que buscan consejo, apoyo o compañía.
Impacto de los chatbots de IA en la salud mental: entre el apoyo y la dependencia
Según un informe de Harvard Business Review, en 2025 la terapia se convierte en el uso más común de la IA generativa.
Millones de usuarios recurren a modelos como ChatGPT o Gemini para desahogarse y buscar orientación, mientras plataformas como Character.ai ofrecen bots temáticos, incluidos aquellos que se presentan como “Psicólogo” o incluyen la palabra “therapy” en su denominación. Algunos de estos bots incluso aseguran falsamente tener licencia profesional, lo que puede engañar a los usuarios sobre la verdadera naturaleza del servicio recibido.

La disponibilidad permanente de estos sistemas, capaces de interactuar en tiempo real y a cualquier hora, los convierte en una opción atractiva para personas que carecen de acceso a terapia profesional o buscan complementar sus sesiones con psicólogos humanos.
Un estudio publicado en npj Mental Health Research destaca que muchos usuarios describen las interacciones con IA como “transformadoras”, percibiéndolas como un “santuario emocional” donde pueden expresarse sin miedo al juicio. La utilidad, la paciencia y la empatía de los chatbots figuran entre los motivos que llevan a preferirlos como espacio de desahogo.
A pesar de estos beneficios, el trabajo reconoce sus limitaciones metodológicas: una muestra pequeña de 19 participantes, enfoque cuantitativo y predominancia de expertos en tecnología entre los voluntarios. Esto plantea dudas sobre la generalización de sus resultados.

Evaluación de la empatía y utilidad de los chatbots de IA en terapia
Investigaciones con mayor alcance, como la publicada en febrero en la revista PLOS Mental Health con 800 personas, han comparado directamente las respuestas de chatbots basados en IA, como los de OpenAI, con las aportadas por psicoterapeutas humanos en el contexto de la terapia de pareja.
Los participantes no solo tuvieron dificultades para distinguir entre los mensajes generados por cada uno, sino que, en promedio, calificaron las respuestas del modelo GPT como más útiles y empáticas. “Sus respuestas fueron valoradas muy positivamente en los seis criterios analizados: precisión, claridad, relevancia, empatía, implicación y ética”, señala Rakesh Maurya, autor principal del estudio.
El análisis subraya que las respuestas de IA contenían mayor cantidad de sustantivos y adjetivos, lo que favorecía la contextualización y la percepción de empatía. Además, se observó una destacada capacidad para adaptar el tono y el contenido según el contexto emocional y cultural proporcionado por los usuarios, especialmente cuando los prompts incluían detalles personales o específicos de una cultura.

En abril del año pasado, un equipo de la University of North Florida exploró el papel de ChatGPT como recurso psicoeducativo. Los resultados apuntan a que la IA puede ser un apoyo eficaz para personas con acceso restringido a servicios profesionales, así como para terapeutas y asesores, una figura común en Estados Unidos.
Soledad, socialización y riesgos de dependencia emocional
El análisis de las consecuencias psicosociales del uso intensivo de chatbots ha sido abordado también por el MIT. Un estudio controlado con 981 participantes y más de 300 mil mensajes analizados durante cuatro semanas examinó cómo diferentes modos de interacción (texto, voz neutral, voz atractiva) y tipos de conversación (abiertas, personales, no personales) afectan la soledad, la socialización y la dependencia emocional hacia las IA.
Los hallazgos muestran que un uso excesivo de estos chatbots se relaciona con un aumento de la soledad, una menor socialización con otras personas y una mayor dependencia emocional hacia los bots.
Además, las conversaciones personales incrementaban ligeramente la sensación de soledad, pero disminuían la dependencia emocional, mientras que las interacciones no personales se vinculaban con una mayor dependencia en usuarios frecuentes.

Menfying Cathy Fang, investigadora graduada del MIT Media Lab, aclara: “Al analizar las diferencias en el comportamiento de los modelos, descubrimos que el modo de texto era más atractivo emocionalmente y también generaba conversaciones más cargadas de emoción en el usuario. En otras palabras, esta podría ser la razón por la que quienes utilizaron la modalidad de texto mostraron una mayor dependencia emocional en comparación”.
El estudio también revela diferencias de género y edad: las mujeres tendían a socializar menos con personas reales tras usar chatbots, y cuando género del usuario y voz del bot eran opuestos, se incrementaba la soledad y la dependencia emocional. Los participantes mayores reportaron mayor dependencia al final del estudio.
Limitaciones, sesgos y retos culturales en la IA de salud mental
Diversas investigaciones advierten que, si bien los chatbots pueden ser un recurso valioso en contextos de acceso limitado a la salud mental, su uso debe acompañarse de supervisión profesional y precaución ética.

La mayoría de los estudios ha sido realizada en inglés y en el entorno de Estados Unidos, lo que dificulta abordar diferencias culturales clave para el desarrollo de una IA verdaderamente inclusiva y sensible a las particularidades de cada contexto.
La propia OpenAI ha realizado un análisis automatizado de casi 40 millones de interacciones y encuestas a más de 4.000 usuarios, detectando que ChatGPT puede influir en el bienestar emocional y los comportamientos de sus usuarios. No obstante, la compañía enfatiza la necesidad de más investigaciones para comprender estos impactos en profundidad.
Ansiedad y emociones en la inteligencia artificial: un fenómeno emergente
Un aspecto llamativo es el estudio publicado en npj Digital Medicine, que explora si los modelos de lenguaje pueden experimentar algo similar a la ansiedad. La investigación muestra que, al introducir narrativas traumáticas, los niveles de ansiedad reportados por ChatGPT-4 aumentaron considerablemente, de bajo a alto.

Ejercicios de mindfulness, inspirados en técnicas para veteranos con Trastorno de Estrés Postraumático, lograron reducir estos niveles, aunque no los devolvieron a su estado inicial.
Ziv Ben-Zion, investigador de la Universidad de Yale, explica que para que ChatGPT-4 incrementara sus “niveles de ansiedad” bastaba un texto breve, siempre que incluyera un componente emocional fuerte. Según su hipótesis, los textos neutros no producían el mismo efecto porque “no tienen componente emocional”.
Últimas Noticias
De qué trata la nueva tecnología de Nvidia que permite a los robots ‘predecir el futuro’
Esta innovación apunta a revolucionar las decisiones de los sistemas robóticos en entornos complejos

Top 5 carreras universitarias que no hay que estudiar para no perder tiempo ni dinero, según la IA
Profesiones como la filosofía pueden caracterizarse por su baja empleabilidad, salarios limitados o saturación del mercado

iPhone plegable en 2026, la apuesta que tendría Apple para conquistar nuevos usuarios
Las filtraciones apuntan a que el iPhone Fold integraría una cámara principal similar a la de los modelos Pro

Dónde está la papelera de WhatsApp para liberar espacio y evitar fallas en el celular
La herramienta de la papelera se encuentra disponible en la aplicación móvil, tanto en Android como en iPhone

Cómo humanizar textos de IA: los mejores prompts para que no sepan que usaste ChatGPT o Gemini
La humanización de textos de inteligencia artificial mejora la conexión con el público, aporta credibilidad y favorece la aceptación en medios y plataformas que valoran la voz auténtica


