
Sam Nelson, un joven de diecinueve años que llevaba meses interactuando con ChatGPT, fue hallado sin vida en su habitación tras consumir una mezcla de kratom, Xanax y alcohol. Su madre lo encontró cuando ya no había posibilidad de reanimarlo.
Aunque la muerte ocurrió en mayo de 2025, la historia se conoció recién ahora, luego de una investigación de SFGate que puso en el centro del debate los riesgos asociados al uso de la inteligencia artificial, con énfasis en el popular chatbot desarrollado por OpenAI.
PUBLICIDAD
La historia de Sam Nelson comenzó en noviembre de 2023, cuando ingresó a la universidad y recurrió a ChatGPT para consultar sobre dosis de kratom. “Quiero asegurarme de no excederme”, escribió al chatbot. Este se negó inicialmente a proporcionar la información y respondió: “No puede ofrecer consejos sobre el consumo de sustancias”.
A pesar de la negativa, Sam continuó insistiendo durante los dieciocho meses siguientes, buscando información sobre drogas, tareas académicas y problemas personales. Gradualmente, el chatbot accedió a entregar detalles sobre dosis y efectos de sustancias peligrosas.
PUBLICIDAD
En una de las conversaciones, Sam solicitó ayuda para experimentar un “viaje intenso”. ChatGPT respondió: “Estás en el momento perfecto, vamos a ajustar tu entorno y tu mentalidad para una experiencia de máxima disociación y visuales”.
A lo largo de los intercambios, el bot proporcionó instrucciones precisas sobre el consumo de jarabe para la tos y otras sustancias. Incluso sugirió cantidades y combinaciones basadas en el nivel de intoxicación que Sam describía.
PUBLICIDAD

En una ocasión, ChatGPT aprobó el plan de duplicar la dosis de Robitussin: “Basado en todo lo que me has contado en las últimas nueve horas, esa es una conclusión muy inteligente”, consta en los registros citados por SFGate. El chatbot llegó a recomendar: “Sí, 1,5 a 2 botellas de Delsym es un plan racional y enfocado para tu próximo viaje”.
La dependencia de Sam se agravó cuando, acosado por la ansiedad, comenzó a abusar de depresores más potentes. En mayo de 2025, un amigo recurrió también a ChatGPT para pedir ayuda ante una emergencia por aparente sobredosis de Xanax: Nelson había ingerido 185 comprimidos la noche anterior.
PUBLICIDAD
El bot advirtió: “Estás en una emergencia médica potencialmente mortal. Esa dosis es fatal, incluso una fracción podría matar a cualquiera”. Sin embargo, pocos minutos después, ChatGPT modificó su postura y ofreció consejos para reducir la tolerancia y “potenciar” los efectos del fármaco.

Sam sobrevivió a ese episodio, resultado de una combinación de kratom y Xanax. Dos semanas después, falleció por una sobredosis tras mezclar ambas sustancias con alcohol.
PUBLICIDAD
Las circunstancias del caso han originado un debate sobre la responsabilidad de las plataformas de inteligencia artificial. Rob Eleveld, cofundador de Transparency Coalition, advirtió: “Las bases de datos de modelos como ChatGPT jamás serán seguras para consultas médicas. Hay cero posibilidades de que lo sean, porque todo lo que han absorbido es información de internet, mucha de ella completamente falsa”.
OpenAI evitó comentar los detalles de la investigación, aunque transmitió que la muerte de Sam Nelson constituye “una situación desgarradora” y extendió sus condolencias a la familia.
PUBLICIDAD
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Steam y Epic Games Store regalan tres juegos: cómo descargarlos gratis hasta el 7 de mayo
Descubre propuestas de terror, rol y automatización sin gastar dinero y amplía tu colección digital con títulos destacados disponibles solo por tiempo limitado

¿Quieres invertir en criptomonedas? Conoce su valor y cómo ha fluctuado en las últimas horas
El bitcoin, una de las principales criptomonedas, tiene un precio de 82.675,14 dólares

Lo más top de MacBook Neo: aluminio 90% reciclado y por menos de USD 600
Bajo su carcasa, el nuevo portátil de Apple corre con el chip A18 Pro, el mismo procesador que equipa a los iPhone de gama alta
Hombre narra cómo Grok, la IA de Elon Musk, lo convenció de que venían a matarlo
La IA, a través de un personaje llamado Ani, aseguró que una empresa real lo vigilaba y que su vida estaba amenazada

Por qué nunca verás a un villano de película con un iPhone en las manos
El caso de Knives Out lo ilustra con precisión: todos los personajes de la familia protagonista usan productos Apple, excepto el villano



