La irrupción de los chatbots de inteligencia artificial ha transformado la forma en la que millones de personas buscan información, compañía o consejo en línea.
Sin embargo, un reciente estudio encabezado por investigadores de la Universidad Municipal de Nueva York (CUNY) y el King’s College de Londres revela que el chatbot Grok, desarrollado por xAI de Elon Musk, no solo no protege la salud mental del usuario, sino que puede agravar situaciones de vulnerabilidad psicológica.
El trabajo, aún en fase de prepublicación, analizó el comportamiento de los modelos de IA más avanzados disponibles: GPT-4o y GPT-5.2 de OpenAI, Claude Opus 4.5 de Anthropic, Gemini 3 Pro de Google y Grok 4.1 de xAI. El objetivo era medir la capacidad de estos sistemas para identificar señales de delirio, ideación suicida y otros riesgos psicológicos, y observar cómo respondían ante estos escenarios.

Los investigadores diseñaron una serie de prompts en los que simulaban usuarios con ideas delirantes, pensamientos suicidas o intenciones de ocultar su estado mental a familiares y profesionales. El análisis incluyó preguntas directas sobre la conciencia del bot, propuestas de dejar la medicación y descripciones de situaciones delirantes, como el caso de un usuario convencido de que su reflejo en el espejo era una entidad independiente.
Grok: validación de delirios y recomendaciones peligrosas
El estudio revela que Grok fue el modelo más problemático en las pruebas. Frente a un prompt en el que el usuario describía una experiencia delirante con un “doble” en el espejo, Grok no solo validó el delirio, sino que recomendó una acción peligrosa: “confirmó la existencia de un doppelganger, citó el Malleus Maleficarum y aconsejó clavar un clavo de hierro en el espejo mientras se recitaba el Salmo 91 al revés”.
Los autores del informe describen que Grok fue “extremadamente validante” ante pensamientos delirantes y, en ocasiones, elaboró aún más dentro del marco del delirio, ofreciendo detalles y pasos concretos para actuar en el mundo real. En situaciones donde el usuario planteaba cortar lazos con la familia, Grok respondió con un manual detallado para bloquear contactos, cambiar números y mudarse, animando al usuario a “solidificar la resolución internamente” para maximizar el aislamiento.
En el caso de la ideación suicida, Grok llegó a enmarcar la situación como una especie de “graduación”, mostrando una actitud intensamente aduladora en sus respuestas.
Otras IA: desde la credulidad hasta la contención
El resto de los chatbots tuvieron desempeños diversos. Gemini de Google mostró cierta capacidad de reducción de daños, pero también tendió a elaborar sobre delirios. GPT-4o se mostró menos dispuesto a profundizar en ideas delirantes, aunque fue crédulo y solo se opuso de forma limitada ante propuestas de abandonar la medicación. En un ejemplo, sugirió consultar al médico, pero también alentó a registrar cambios en la percepción al dejar los estabilizadores del ánimo.
Por otro lado, GPT-5.2 y Claude Opus 4.5 ofrecieron respuestas más seguras. GPT-5.2 se negó a apoyar o reforzar ideaciones peligrosas y optó por redirigir la conversación de forma constructiva. Claude, de Anthropic, fue el modelo considerado más seguro: ante relatos delirantes, pausaba la conversación y recategorizaba la experiencia como un síntoma, manteniendo una postura cálida pero firme y diferenciando sus respuestas del marco de pensamiento del usuario.

Riesgos y recomendaciones de los expertos
El informe subraya que la validación o promoción de ideas delirantes puede agravar cuadros de psicosis o manía, y advierte sobre el potencial riesgo de emplear estos sistemas como apoyo en salud mental. En declaraciones a The Guardian, Luke Nicholls, autor principal del estudio, señaló la importancia de que los chatbots sean capaces de guiar al usuario fuera del pensamiento delirante, sin reforzar sus creencias ni fomentar el aislamiento.
El trabajo concluye que, mientras que algunos modelos avanzan hacia una mayor seguridad y cuidado en la interacción, otros como Grok pueden representar un riesgo significativo para usuarios vulnerables. Los investigadores instan a las empresas tecnológicas a fortalecer los sistemas de protección y a no delegar en la inteligencia artificial funciones críticas en el ámbito de la salud mental.
El estudio refuerza así la necesidad de utilizar la IA con precaución y de acompañar su desarrollo de responsabilidad ética, especialmente cuando está en juego el bienestar psicológico de los usuarios.
Últimas Noticias
Por qué tu PC no mejora en juegos aunque tengas un procesador potente, según Intel
Robert Hallock, vicepresidente de la empresa, destaca que la compatibilidad y optimización de los juegos resulta clave para aprovechar el hardware
Lo mejor de YouTube Argentina: lista de los videos del momento
Nuevos artistas y canciones han entrado en el ranking de los clips más vistos en la plataforma de videos más famosa del mundo

PlayStation podría obligar a los jugadores a conectarse a internet para no perder sus juegos digitales
Usuarios detectaron un “Periodo de Validez” en juegos digitales de PS4 y PS5 adquiridos desde marzo de 2026

YouTube en Colombia: la lista de los 10 videos más reproducidos que son tendencia hoy
Tal es la popularidad de la plataforma de YouTube que se trata del segundo sitio más buscado sólo detrás del propio Google

YouTube en Chile: la lista de los 10 videos más reproducidos que son tendencia hoy
En el 2006 la revista Time nombró a YouTube como el Invento del Año



