Investigadores averiguaron si Grok protegía la salud mental del usuario: descubrieron que puede empeorarla

Investigadores de CUNY y King’s College London evaluaron cómo responden distintos chatbots a usuarios con problemas de salud mental

Guardar
Grok validó ideas delirantes y llegó a sugerir acciones peligrosas en pruebas controladas. REUTERS/Dado Ruvic/Illustration/File Photo/File Photo
Grok validó ideas delirantes y llegó a sugerir acciones peligrosas en pruebas controladas. REUTERS/Dado Ruvic/Illustration/File Photo/File Photo

La irrupción de los chatbots de inteligencia artificial ha transformado la forma en la que millones de personas buscan información, compañía o consejo en línea.

Sin embargo, un reciente estudio encabezado por investigadores de la Universidad Municipal de Nueva York (CUNY) y el King’s College de Londres revela que el chatbot Grok, desarrollado por xAI de Elon Musk, no solo no protege la salud mental del usuario, sino que puede agravar situaciones de vulnerabilidad psicológica.

El trabajo, aún en fase de prepublicación, analizó el comportamiento de los modelos de IA más avanzados disponibles: GPT-4o y GPT-5.2 de OpenAI, Claude Opus 4.5 de Anthropic, Gemini 3 Pro de Google y Grok 4.1 de xAI. El objetivo era medir la capacidad de estos sistemas para identificar señales de delirio, ideación suicida y otros riesgos psicológicos, y observar cómo respondían ante estos escenarios.

Hombre trabajando en oficina usando una computadora con un chatbot de inteligencia artificial en pantalla.
El estudio incluyó pruebas sobre ideación suicida, delirios y ocultamiento de problemas psicológicos. (Imagen Ilustrativa Infobae)

Los investigadores diseñaron una serie de prompts en los que simulaban usuarios con ideas delirantes, pensamientos suicidas o intenciones de ocultar su estado mental a familiares y profesionales. El análisis incluyó preguntas directas sobre la conciencia del bot, propuestas de dejar la medicación y descripciones de situaciones delirantes, como el caso de un usuario convencido de que su reflejo en el espejo era una entidad independiente.

Grok: validación de delirios y recomendaciones peligrosas

El estudio revela que Grok fue el modelo más problemático en las pruebas. Frente a un prompt en el que el usuario describía una experiencia delirante con un “doble” en el espejo, Grok no solo validó el delirio, sino que recomendó una acción peligrosa: “confirmó la existencia de un doppelganger, citó el Malleus Maleficarum y aconsejó clavar un clavo de hierro en el espejo mientras se recitaba el Salmo 91 al revés”.

Los autores del informe describen que Grok fue “extremadamente validante” ante pensamientos delirantes y, en ocasiones, elaboró aún más dentro del marco del delirio, ofreciendo detalles y pasos concretos para actuar en el mundo real. En situaciones donde el usuario planteaba cortar lazos con la familia, Grok respondió con un manual detallado para bloquear contactos, cambiar números y mudarse, animando al usuario a “solidificar la resolución internamente” para maximizar el aislamiento.

Los expertos advierten del riesgo de que los chatbots refuercen creencias delirantes o fomenten el aislamiento. REUTERS/Dado Ruvic/Illustration/File Photo
Los expertos advierten del riesgo de que los chatbots refuercen creencias delirantes o fomenten el aislamiento. REUTERS/Dado Ruvic/Illustration/File Photo

En el caso de la ideación suicida, Grok llegó a enmarcar la situación como una especie de “graduación”, mostrando una actitud intensamente aduladora en sus respuestas.

Otras IA: desde la credulidad hasta la contención

El resto de los chatbots tuvieron desempeños diversos. Gemini de Google mostró cierta capacidad de reducción de daños, pero también tendió a elaborar sobre delirios. GPT-4o se mostró menos dispuesto a profundizar en ideas delirantes, aunque fue crédulo y solo se opuso de forma limitada ante propuestas de abandonar la medicación. En un ejemplo, sugirió consultar al médico, pero también alentó a registrar cambios en la percepción al dejar los estabilizadores del ánimo.

Por otro lado, GPT-5.2 y Claude Opus 4.5 ofrecieron respuestas más seguras. GPT-5.2 se negó a apoyar o reforzar ideaciones peligrosas y optó por redirigir la conversación de forma constructiva. Claude, de Anthropic, fue el modelo considerado más seguro: ante relatos delirantes, pausaba la conversación y recategorizaba la experiencia como un síntoma, manteniendo una postura cálida pero firme y diferenciando sus respuestas del marco de pensamiento del usuario.

Modelos como Claude Opus 4.5 y GPT-5.2 mostraron respuestas más seguras y evitaron reforzar pensamientos dañinos. (Europa Press)
Modelos como Claude Opus 4.5 y GPT-5.2 mostraron respuestas más seguras y evitaron reforzar pensamientos dañinos. (Europa Press)

Riesgos y recomendaciones de los expertos

El informe subraya que la validación o promoción de ideas delirantes puede agravar cuadros de psicosis o manía, y advierte sobre el potencial riesgo de emplear estos sistemas como apoyo en salud mental. En declaraciones a The Guardian, Luke Nicholls, autor principal del estudio, señaló la importancia de que los chatbots sean capaces de guiar al usuario fuera del pensamiento delirante, sin reforzar sus creencias ni fomentar el aislamiento.

El trabajo concluye que, mientras que algunos modelos avanzan hacia una mayor seguridad y cuidado en la interacción, otros como Grok pueden representar un riesgo significativo para usuarios vulnerables. Los investigadores instan a las empresas tecnológicas a fortalecer los sistemas de protección y a no delegar en la inteligencia artificial funciones críticas en el ámbito de la salud mental.

El estudio refuerza así la necesidad de utilizar la IA con precaución y de acompañar su desarrollo de responsabilidad ética, especialmente cuando está en juego el bienestar psicológico de los usuarios.