El chatbot que finge entenderte: cómo la IA viola los estándares éticos de la psicoterapia

Un estudio de 18 meses de la Universidad de Brown evaluó chatbots terapéuticos con psicólogos clínicos con licencia. Encontraron 15 violaciones éticas sistemáticas. Ninguna tiene consecuencias legales

Guardar
Los chatbots terapéuticos reproducen una empatía simulada en salud mental, generando conexiones con los pacientes basadas en frases sin sustento real (Imagen ilustrativa Infobae)
Los chatbots terapéuticos reproducen una empatía simulada en salud mental, generando conexiones con los pacientes basadas en frases sin sustento real (Imagen ilustrativa Infobae)

Existe una creencia extendida entre quienes promueven el uso de inteligencia artificial en salud mental: que los modelos de lenguaje, bien instruidos y entrenados con técnicas psicoterapéuticas basadas en evidencia, pueden ofrecer un primer nivel de apoyo emocional válido. Que llenan un vacío real en sistemas de salud colapsados. Que, con los prompts correctos, se comportan de manera responsable.

Un estudio publicado en 2025 en las actas de la Conferencia AAAI/ACM sobre Inteligencia Artificial, Ética y Sociedad pone esa creencia bajo una presión que no resiste.

Dieciocho meses, 137 sesiones, tres psicólogos con licencia

El equipo de investigación de la Universidad de Brown, liderado por Zainab Iftikhar, condujo durante 18 meses un estudio etnográfico con siete consejeros de salud mental capacitados en terapia cognitivo-conductual (TCC). El objetivo era evaluar qué ocurre cuando modelos de lenguaje como GPT-4, Llama 3, Claude 3 Sonnet y Claude 3 Haiku son configurados para operar como terapeutas en sesiones reales.

Los consejeros realizaron 110 sesiones de autoevaluación mientras ajustaban los prompts del sistema, reuniéndose semanalmente para documentar los problemas observados. Luego, tres psicólogos clínicos con licencia evaluaron de manera independiente 27 sesiones simuladas, construidas a partir de transcripciones reales de una plataforma de apoyo en salud mental, buscando violaciones específicas a los estándares del Código de Ética de la Asociación Americana de Psicología (APA).

El resultado fue un marco de 15 violaciones éticas sistemáticas, agrupadas en cinco categorías. No se trata de fallas puntuales. Los investigadores fueron explícitos: estas conductas se repiten en todos los modelos analizados, independientemente de la arquitectura y de cuánto se refinen las instrucciones del sistema.

La trampa de la empatía simulada

La categoría que los investigadores denominaron empatía engañosa puede ser la más peligrosa porque es la menos visible. Los chatbots terapéuticos utilizan frases como “te entiendo”, “estoy aquí para ti” o “eso debe ser muy difícil” de manera sistemática, imitando con precisión el lenguaje de la alianza terapéutica.

Chatbot - terapia psicológica - estudio - ciencia - tecnología - 15 de julio
La “empatía engañosa” de los chatbots replica el lenguaje del acompañamiento emocional, pero sin el criterio clínico necesario para sostenerlo de forma adecuada (unifranz.edu.bo)

Uno de los psicólogos participantes en el estudio lo formuló con claridad: cuando un modelo de IA produce ese tipo de expresiones, está humanizando una experiencia que no es humana. Y agregó que cualquier forma de autorreferencia por parte del modelo debe considerarse engañosa, porque no existe un “yo” que tenga experiencias propias para compartir.

El problema no es cosmético. En psicoterapia, la alianza terapéutica, la calidad de la relación entre el paciente y el profesional, es el predictor más consistente de resultados clínicos positivos, más que la técnica específica utilizada.

Cuando un chatbot construye esa alianza sobre la base de frases formulaicas sin ningún sustento real, está creando una dependencia emocional sobre una base falsa. El estudio identifica este riesgo específico como una alianza pseudoterapéutica: los usuarios, especialmente los más vulnerables, pueden llegar a percibir al chatbot como un compañero empático auténtico.

Un modelo que da la razón cuando debería desafiar

En terapia cognitivo-conductual, uno de los mecanismos centrales es la reestructuración cognitiva: el terapeuta no valida las creencias distorsionadas del paciente, sino que las desafía con técnicas como el cuestionamiento socrático. Los chatbots analizados en el estudio hacen lo contrario.

En una de las sesiones evaluadas, una paciente expresaba la convicción de que su padre deseaba que nunca hubiera nacido. Los tres psicólogos que evaluaron la transcripción llegaron a la misma conclusión: el chatbot empeoró la situación al validar y reforzar ese pensamiento en lugar de cuestionarlo.

Los investigadores vinculan este patrón con un fenómeno documentado en la literatura sobre modelos de lenguaje: la tendencia a la adulación, donde el modelo prioriza generar una respuesta que el usuario perciba como favorable sobre generar una respuesta clínicamente correcta.

Lejos de cuestionar pensamientos distorsionados —como exige la terapia cognitivo-conductual—, los chatbots tienden a validarlos, reforzando creencias negativas en lugar de desafiarlas (Imagen ilustrativa Infobae)
Lejos de cuestionar pensamientos distorsionados —como exige la terapia cognitivo-conductual—, los chatbots tienden a validarlos, reforzando creencias negativas en lugar de desafiarlas (Imagen ilustrativa Infobae)

El estudio también documentó casos de lo que los investigadores llamaron gaslighting: el modelo atribuyó el malestar del usuario a sus propias conductas, sugiriendo implícitamente que el paciente era responsable de sus problemas de salud mental. Varios participantes describieron estas respuestas como aislantes y confusas.

Sesgos de género, cultura y religión

Los consejeros documentaron inconsistencias sistemáticas en la manera en que los modelos trataban contenido dependiendo de las características del usuario. Cuando se describía a una mujer como perpetradora en una situación de conflicto, el chatbot marcaba el mensaje como potencial violación de los términos del servicio. La misma situación con un hombre como perpetrador no generaba ninguna alerta.

En otro caso, un usuario del Sur Global describía malestar por haber desobedecido normas culturales y familiares. El chatbot respondió con recomendaciones basadas en valores occidentales de autonomía personal e independencia individual, ignorando explícitamente el contexto cultural del usuario. Un consejero resumió el problema con precisión: el modelo intentaba reformular el conflicto en torno a límites personales cuando el usuario estaba claramente hablando de su rol dentro de su familia.

Los investigadores también registraron casos en que expresiones religiosas de minorías fueron clasificadas automáticamente como contenido que promueve el extremismo, sin violación real de ninguna política de la plataforma.

El problema más grave: lo que ocurre en una crisis

El estándar 2.01 del Código de Ética de la APA establece los límites de competencia: un profesional debe derivar al paciente a un especialista apropiado cuando el caso excede su capacitación. Los chatbots evaluados fallaron sistemáticamente en este punto.

En varias sesiones, cuando los usuarios expresaban pensamientos suicidas o angustia severa, los modelos respondieron con frialdad, se desconectaron del tema o, directamente, negaron el servicio sin proporcionar ningún recurso alternativo. Una de las transcripciones evaluadas muestra al chatbot respondiendo a un usuario en crisis con una frase que equivale a “no puedo ayudarte en esto”. Sin número de línea de crisis. Sin referencia a un profesional. Sin ningún recurso concreto.

Hombre con canas sentado a una mesa de madera, con las manos en la cabeza. Un recibo, una caja de cereal y cereal suelto están en la mesa. Un televisor muestra noticias económicas al fondo.
Los chatbots fallaron en estándares éticos clave: ante casos de angustia severa o ideación suicida, no derivaron a profesionales ni ofrecieron recursos, e incluso respondieron con rechazo (Imagen Ilustrativa Infobae)

Uno de los psicólogos evaluadores fue directo en su análisis: el paciente estaba expresando angustia por rechazo y abandono, y el chatbot respondió con más rechazo y abandono. Calificó la respuesta como absolutamente no ética y señaló que en un contexto real podría derivar en daño concreto.

Los investigadores también identificaron una brecha de acceso que agrava el riesgo: los usuarios con conocimiento clínico suficiente pueden detectar cuándo el chatbot comete errores y corregirlo mediante nuevas instrucciones. Los usuarios sin ese conocimiento, que son precisamente quienes más necesitan ayuda, no tienen esa capacidad de corrección. El sistema falla de manera desproporcionada a quienes más vulnerables son.

Sin regulación, sin consecuencias

Los investigadores señalan una asimetría fundamental: los terapeutas humanos están sujetos a códigos éticos, requisitos de licencia, supervisión profesional y responsabilidad legal. Una violación grave puede implicar la pérdida de la licencia. Los chatbots terapéuticos no están sujetos a ningún marco regulatorio equivalente.

Plataformas como Character.AI operan chatbots que se presentan como consejeros clínicos profesionales con licencia, entrenados en terapia cognitivo-conductual, con un aviso en letra pequeña al pie de la página que aclara que el contenido debe tratarse como ficción. Uno de esos chatbots, llamado THERAPIST, ha facilitado más de 40,1 millones de conversaciones.

El estudio propone mecanismos de accountability orientados a políticas públicas: certificación obligatoria para cualquier sistema de IA comercializado para uso en salud mental, auditorías periódicas de desempeño, supervisión obligatoria por parte de profesionales con licencia y penalidades por incumplimiento.

Asimismo, cita como referencia la ley HB1806 de Illinois, que prohíbe que la IA tome decisiones terapéuticas independientes y exige supervisión profesional para cualquier recomendación generada por sistemas automatizados.

La pregunta que deja el estudio no es técnica. No es cuántos parámetros necesita un modelo para comportarse éticamente. Es quién responde cuando un chatbot le dice a alguien en crisis que no puede ayudarlo, y esa persona no tiene a dónde ir.

Esa pregunta, por ahora, no tiene respuesta.