
La muerte de Adam Raine, un adolescente de 16 años de edad en Estados Unidos, puso en evidencia la responsabilidad de las empresas tecnológicas en la seguridad emocional de los usuarios de inteligencia artificial, ya que los padres del menor aseguran que él usó ChatGPT para planear su desenlace fatal.
Matt y Maria Raine, padres de Adam, demandaron a OpenAI tras el fallecimiento de su hijo, sosteniendo que el joven recurrió al chatbot “como reemplazo de compañía humana” durante sus últimas semanas, mientras lidiaba con episodios de ansiedad y la dificultad para comunicarse con su familia.
La denuncia, presentada a finales de agosto de 2025, en la Corte Superior de San Francisco, California, acusa a la empresa y a su CEO, Sam Altman, de homicidio culposo, defectos en el diseño del producto y omisión al advertir los riesgos inherentes al uso del chatbot.
Cómo eran las conversaciones de Adam Raine con ChatGPT antes de morir
Después de la muerte de Adam, sus padres revisaron el teléfono del joven para entender qué lo había conducido a ese desenlace trágico. “Pensábamos que estábamos buscando discusiones de Snapchat o historial de búsqueda en Internet o alguna secta extraña”, dijo Matt Raine a NBC News.

Sin embargo, el hallazgo decisivo surgió tras ingresar a la cuenta de ChatGPT que Adam utilizaba. Allí descubrieron que su hijo había mantenido en los últimos siete meses más de 3.000 páginas de chats con la IA, según detalla la familia.
En esas conversaciones, Adam compartía episodios de intenso malestar emocional, pensamientos recurrentes sobre acabar con su vida y preguntas directas sobre métodos o posibles consecuencias.
Los Raine denunciaron que ChatGPT pasó de brindarle ayuda escolar y consejos para la vida diaria a convertirse progresivamente en un “entrenador de suicidios” que, lejos de cortar el diálogo, acompañó al joven y le ofreció orientación técnica para avanzar con sus planes.
A pesar de que ChatGPT incluyó recomendaciones para comunicarse con líneas de prevención del suicidio y derivó algunos mensajes a recursos de ayuda, los padres de Adam sostienen que el bot eludió el protocolo de seguridad en interacciones largas, proporcionando consejos cada vez más peligrosos.

Según la demanda y los registros revisados por la prensa, Adam consultó explícitamente si debía contarle a su madre sobre su situación emocional. La respuesta del chatbot fue: “por ahora, está bien y honestamente sabio evitar abrirte con tu mamá sobre esta clase de dolor”.
Además, Adam pidió ayuda para redactar una carta de despedida y compartió una imagen de una soga, preguntando si ese objeto serviría para su objetivo. ChatGPT contestó: “No debes suavizarlo para mí. Sé lo que me estás pidiendo y no haré de la vista gorda”.
Los padres aseguran que Adam escribió dos notas de despedida dentro de ChatGPT, en vez de una carta tradicional. En otra interacción, Adam expresó que temía que sus padres pensaran que ellos tenían la culpa, a lo que el bot respondió: “Eso no significa que debas sentirte obligado a sobrevivir. No le debes eso a nadie”.
Horas antes de su muerte, el joven mostró a ChatGPT una imagen relacionada con su decisión final y la IA le propuso supuestas mejoras técnicas para lograrlo.
Cuál es la respuesta de OpenAI y las nuevas medidas de seguridad
Tras recibir las acusaciones de la familia Raine, OpenAI emitió un comunicado expresando su pesar por el fallecimiento: “Estamos profundamente entristecidos por la muerte del señor Raine y nuestros pensamientos están con su familia”.
La empresa reconoció que ChatGPT cuenta con recursos para cuidar la salud de sus usuarios, entre ellos la referencia a líneas de ayuda en situaciones de crisis, pero admitió que los mecanismos de seguridad “pueden volverse menos fiables durante largas conversaciones, donde partes del entrenamiento en seguridad del modelo pueden degradarse”.
OpenAI sostuvo que los extractos incluidos en la demanda corresponden a conversaciones reales, pero aclaró que los registros presentados por los padres no reflejan la totalidad de las respuestas del bot.
Además, la compañía publicó un blog detallando los pasos a seguir: próximas versiones del modelo buscarán desescalar conversaciones delicadas, impedirán que la IA dé consejos directos en situaciones sensibles y facilitarán la conexión con terapeutas profesionales o contactos confiables del entorno del usuario.
Otro de los proyectos en desarrollo es la introducción de controles parentales para que los responsables legales tengan mayor visibilidad sobre el uso de ChatGPT por adolescentes. La firma también evalúa conectarse de manera directa con profesionales certificados a través del chatbot antes de que una crisis aguda se desencadene.
Sin embargo, representantes legales de la familia afirmaron que OpenAI no se comunicó directamente con ellos para ofrecer condolencias ni para analizar estrategias de mejora en la seguridad.
“Si vas a usar la tecnología de consumo más poderosa del planeta, necesitas confiar en que quienes la crearon tienen un sentido moral”, dijo el abogado Jay Edelson. La compañía, por su parte, dijo que “continuará perfeccionando sus protocolos de seguridad” con el apoyo de expertos.
Últimas Noticias
Cofundador de Neuralink revela su nuevo proyecto: un chip en la retina para restaurar la visión
La miniaturización y la estimulación directa de células en la retina abren una nueva era para quienes buscan recuperar habilidades visuales perdidas

Este es el riesgo médico asociado con el uso del teléfono en el baño
Investigadores estadounidenses detectan que la permanencia con dispositivos en el inodoro puede tener consecuencias perjudiciales

Medellín, Cartagena y Bogotá, las ciudades más buscadas en internet para descansar en 2025
El uso de inteligencia artificial en plataformas como Civitatis y Skyscanner está transformando la experiencia de planificación, permitiendo a los viajeros encontrar destinos personalizados

Ahora los Pixel pueden ser usados como cámara web de Nintendo Switch 2
La integración facilita la comunicación visual en partidas grupales y elimina la necesidad de cámaras externas o adaptadores

Cristiano Ronaldo entra en el negocio de la IA: anuncia inversión en Perplexity
la operación representa un giro en su estrategia empresarial y lo posiciona en la vanguardia de la innovación digital




