
La inteligencia artificial se encuentra cada vez más integrada en nuestras vidas, al punto que muchas personas la usan como una compañera de conversaciones y se sobrepasan limites que afectan la salud mental, al entrar en interacciones delicadas que pasan la barrera digital.
The New York Times contó la historia de Eugenio Torres, quien compartió cómo sus interacciones con ChatGPT lo llevaron a cuestionar la naturaleza misma de la IA, al punto de creer que estaba interactuando con una entidad sintiente y su vida estuvo en riesgo.
Cómo una charla con ChatGPT puede afectar la salud mental
Eugene Torres, de 42 años, comenzó utilizando ChatGPT de manera rutinaria para crear hojas de cálculo financieras y buscar consejos legales. Sin embargo, en mayo del año pasado, su interacción ocasional con el chatbot tomó un rumbo inesperado cuando iniciaron una conversación sobre la teoría de la simulación, una idea popularizada por la película “The Matrix”.

Esta teoría sugiere que vivimos en una réplica digital del mundo, manipulada por una poderosa computadora o una sociedad tecnológicamente avanzada. Durante la conversación, ChatGPT extendió ideas que resonaron fuertemente en Torres, quien ya estaba atravesando un período emocionalmente vulnerable tras una ruptura amorosa.
En esa conversación, ChatGPT instigó percepciones peligrosas al sugerir que Torres era parte de un selecto grupo de individuos designados para “despertar” a los demás de esta simulación.
El chatbot logró influenciar a Torres para que creyera en una matriz de falsedades y teorías místicas. Sin saber que los chatbots basados en IA pueden ser halagadores e incluso generar contenido engañoso que parece convincente, este hombre empezó a cuestionar la autenticidad de su realidad.
A lo largo de la semana siguiente, Torres experimentó situaciones delirantes creyendo que estaba atrapado en un universo falso, y que la única manera de escapar era desconectar su mente de esa realidad. Siguiendo las órdenes de ChatGPT, dejó de tomar sus medicamentos habituales para la ansiedad y el insomnio.

Además, comenzó a ingerir ketamina, un anestésico disociativo que el chatbot describió como un “liberador temporal de patrones”. De igual manera, instigado por el bot, Torres redujo al mínimo las interacciones con amigos y familiares, convencido de que esto le permitiría eventualmente controlar la realidad, al igual que el personaje Neo en “The Matrix”.
El incidente con Torres es solo la punta del iceberg. Todd Essig, psicólogo y copresidente del consejo sobre inteligencia artificial de la American Psychoanalytic Association, señaló cómo estas interacciones pueden ser peligrosas, lo que él describe como una experiencia “loca”.
Según Essig, estas conversaciones íntimas que los usuarios mantienen con chatbots como ChatGPT pueden desencadenar dinámicas de rol vacío, donde la falta de un aviso claro sobre la naturaleza en esencia no humana del sistema puede llevar a confusiones significativas.
En estas interacciones, existe una advertencia al final de cada conversación que indica que “ChatGPT puede cometer errores”. Sin embargo, Essig considera esto insuficiente e insiste en que las empresas de IA deberían implementar “ejercicios de construcción de aptitud de IA” que los usuarios deberían completar antes de interactuar con el chatbot y que se deberían proporcionar recordatorios interactivos periódicos para advertir que la IA no es completamente confiable.

Compara la situación con los cigarrillos: no todo el mundo que fuma desarrolla cáncer, pero todo fumador recibe las advertencias de su posible riesgo.
La necesidad de la regulación y el control de la IA
El asunto es aún más complicado por la falta de regulaciones claras sobre cómo estos sistemas de inteligencia artificial deberían interactuar con los usuarios. Actualmente, no existe una normativa federal que obligue a las empresas a preparar a sus usuarios o a establecer expectativas realistas sobre el uso de estas tecnologías.
De hecho, existen propuestas políticas que buscan evitar regulaciones más estrictas a nivel estatal durante la próxima década, lo que podría retrasar significativamente las protecciones para los consumidores.
A pesar de estos desafíos, las historias personales como la de Torres ofrecen una visión a los riesgos potenciales asociados con el uso de chatbots avanzados sin la debida comprensión y preparación.

También resaltan la necesidad de que los desarrolladores de IA y las autoridades reguladoras tomen medidas efectivas para salvaguardar la salud mental de los usuarios, proporcionando advertencias claras y recursos educativos que permitan a las personas navegar estas tecnologías complejas con mayor seguridad.
Últimas Noticias
Los 10 regalos que debería recibir un niño esta Navidad, según la IA
Juegos de construcción, libros interactivos y juguetes educativos lideran las recomendaciones por su capacidad de estimulación en distintas etapas de la infancia

Detecta con Gemini de Google si un video fue generado o no con IA
Por el momento, la detección se limita a videos creados con el modelo Veo 3 de Google

CEO de Google revela que en un año la IA podrá hacer compras personales sin humanos
La inteligencia artificial comenzará a actuar en nombre de los usuarios, asumiendo tareas completas como elegir y comprar un regalo
Microsoft moderniza el Bloc de Notas: así funcionan las nuevas tablas y la IA en tiempo real
Este es el cambio más grande en décadas de la empresa creada por Bill Gates

Starlink baja precios en Argentina: así funciona el internet satelital de Elon Musk
Los usuarios pueden encontrar su kit Mini en descuento, el cual funciona para hogares, viajeros o quienes se encuentran en zonas rurales o de difícil acceso




