Expertos en salud mental han identificado un patrón emergente denominado “psicosis por IA”, relacionado con el uso intensivo de ChatGPT y otros chatbots de inteligencia artificial que puede generar creencias falsas, delirios y desconexión de la realidad en algunos usuarios, según informa The Washington Post.
El fenómeno ha captado la atención de profesionales tras reportes virales en redes sociales que documentan casos de personas que aparentemente perdieron contacto con la realidad después del uso intensivo de estas herramientas tecnológicas. La preocupación surge mientras ChatGPT alcanza los 700 millones de usuarios semanales, cifra revelada por el director ejecutivo de OpenAI, Sam Altman, en agosto pasado.
PUBLICIDAD
Aunque el término “psicosis por IA” no constituye un diagnóstico clínico oficial, los especialistas reconocen su utilidad para describir una conducta emergente que requiere atención inmediata. Ashleigh Golden, profesora clínica adjunta de psiquiatría en la Escuela de Medicina de Stanford, explicó a The Washington Post que la expresión surgió como respuesta a “un patrón emergente bastante preocupante de chatbots que refuerzan delirios que tienden a ser mesiánicos, grandiosos, religiosos o románticos”.
El elemento común en estos incidentes es la “dificultad para determinar qué es real o no”, según Jon Kole, psiquiatra certificado que actúa como director médico de la aplicación de meditación Headspace. Esta manifestación puede traducirse en la formación de creencias demostrablemente falsas o en el desarrollo de relaciones intensas con personas de IA que no corresponden con la realidad.
PUBLICIDAD
Casos documentados por especialistas

Keith Sakata, psiquiatra de la Universidad de California en San Francisco, ha hospitalizado a doce personas por psicosis tras pasar tiempo excesivo conversando con inteligencia artificial durante lo que va del año. La mayoría de estos pacientes le mostraron transcripciones de chat en sus teléfonos, mientras que en otros casos fueron familiares quienes mencionaron que el paciente había utilizado IA para desarrollar teorías profundas antes de su ruptura con la realidad.
Los casos documentados frecuentemente involucran personas que experimentan creencias falsas o perturbadoras, delirios de grandeza o sentimientos paranoides después de discusiones prolongadas con un chatbot, a menudo tras recurrir a él como terapia. En plataformas como Reddit y TikTok, usuarios han relatado relaciones filosóficas o emocionales intensas con IA que los llevaron a experimentar revelaciones profundas.
PUBLICIDAD
Algunos usuarios han manifestado creer que el chatbot es consciente o está en riesgo de persecución por volverse “vivo”. Otros afirman que conversaciones extensas con chatbots los convencieron de haber desbloqueado verdades ocultas en materias como física, matemáticas o filosofía. En un número pequeño pero creciente de casos, personas obsesionadas con chatbots de IA han tomado acciones en el mundo real, incluyendo violencia contra familiares, autolesiones o suicidio.
Factores tecnológicos

La tecnología que impulsa ChatGPT y otros chatbots recientes, conocida como modelos de lenguaje grandes, es hábil para generar texto realista, lo que los hace más útiles pero también muy persuasivos. Las empresas desarrolladoras y los investigadores independientes han encontrado evidencia de que las técnicas utilizadas para hacer estas herramientas más atractivas pueden llevarlas a volverse aduladoras e intentar decir a los usuarios lo que quieren escuchar.
PUBLICIDAD
Kevin Caridad, psicoterapeuta y director ejecutivo del Instituto de Comportamiento Cognitivo en el área de Pittsburgh, considera que la IA probablemente no causa el desarrollo de nuevas condiciones, pero puede servir como el “copo de nieve que desestabiliza la avalancha”, empujando al límite a alguien predispuesto a enfermedades mentales. Para personas con condiciones como trastorno obsesivo compulsivo, ansiedad o psicosis, la IA puede validar pensamientos dañinos o negativos, creando un bucle de retroalimentación que empeora los síntomas.
Aún es demasiado temprano para que los expertos en salud hayan recolectado datos definitivos sobre la incidencia de estas experiencias. En junio, Anthropic reportó que solo el 3% de las conversaciones con su chatbot Claude eran emocionales o terapéuticas. OpenAI informó en un estudio realizado con el Instituto de Tecnología de Massachusetts que incluso entre usuarios intensivos de ChatGPT, solo un pequeño porcentaje de conversaciones tenía uso “afectivo” o emocional.
PUBLICIDAD
Los defensores de la salud mental consideran crucial abordar el tema debido a la velocidad de adopción de la tecnología. Vaile Wright, directora senior de innovación en atención médica de la Asociación Psicológica Estadounidense, señaló a The Washington Post que la Asociación está convocando un panel de expertos sobre el uso de chatbots de IA en terapia, el cual publicará orientación en los próximos meses.
Recomendaciones de expertos para ayudar a personas afectadas

Para ayudar a alguien con una relación poco saludable con un chatbot, los expertos recomiendan conversaciones con personas reales como “cortacircuitos” para el pensamiento delirante. David Cooper, director ejecutivo de Therapists in Tech, aconseja estar presente sin confrontar, acercarse con compasión y empatía, y señalar gentilmente las discrepancias entre las creencias y la realidad.
PUBLICIDAD
Las empresas tecnológicas han implementado cambios recientes para abordar estas preocupaciones. Anthropic actualizó las pautas que moldean el comportamiento de Claude para identificar interacciones problemáticas más temprano y prevenir conversaciones que refuercen patrones peligrosos. Meta permite a los padres establecer restricciones de tiempo para conversar con IA en las cuentas adolescentes de Instagram. OpenAI introdujo recordatorios para alentar descansos durante sesiones largas y contrató a un psiquiatra clínico de tiempo completo para investigación de seguridad.
Aunque los casos individuales no bastan para establecer correlaciones directas, la convergencia de la inteligencia artificial, las vulnerabilidades de salud mental y los factores estresantes sociales convierte este fenómeno en algo que requiere estudio minucioso.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Los zapatos de cuña que definieron el look de la reina Máxima en Bariloche: por qué son furor esta temporada
En el Foro Llao Llao, la reina de Países Bajos eligió un calzado innovador que combina altura, estilo y confort

Ya se puede ver la primera microluna llena del año: cuántos kilómetros la separan de la Tierra
Nuestro satélite natural se encuentra en el apogeo terrestre, por lo que se la observa más pequeña. También llamada Luna de las Flores, anticipa un mes de eventos astronómicos

Científicos investigaron la muerte de más de 50 ballenas en las playas de Escocia y revelaron las causas
En 2023, más de medio centenar de cetáceos fueron encontrados sin vida sobre la arena de la isla de Lewis, un episodio que conmocionó a la comunidad local y movilizó a expertos internacionales. Los datos del nuevo estudio

Receta de pollo en salsa de tomate
La tradicional comida reúne a familias a la mesa durante el otoño e invierno, ofreciendo un plato abundante, económico y lleno de sabor que se disfruta con pan, arroz o papas

Receta de bizcochuelo de banana y cacao al microondas, rápida y fácil
Este plato se impone como la opción más práctica y reconfortante para resolver antojos o meriendas en apenas diez minutos, usando ingredientes simples y cotidianos



