La inteligencia artificial generativa, con sistemas como ChatGPT o Gemini, está cada vez más integrada en la vida cotidiana de millones de personas. Desde pedir ideas para cocinar hasta resolver dudas complejas o realizar consultas sobre salud, estas herramientas se han convertido en una fuente rápida y accesible de información. Sin embargo, su uso creciente también plantea riesgos cuando llega a sustituir la opinión de profesionales médicos, especialmente en situaciones clínicas delicadas.
Esto le ocurrió a un hombre de 73 años hace aproximadamente dieciocho meses. A Joseph Neal Riley le diagnosticaron de forma simultánea varias enfermedades graves: cáncer de pulmón, enfermedad renal y leucemia linfocítica crónica, un tipo de cáncer de la sangre que finalmente acabaría con su vida.
Su situación requería un tratamiento urgente y altamente especializado, que incluía terapias modernas como Venetoclax y Obinutuzumab, consideradas de primera línea para este tipo de leucemia. Aunque las dos primeras patologías respondieron de forma relativamente favorable a los tratamientos convencionales, el manejo de la leucemia se volvió progresivamente más complejo.
El oncólogo responsable del caso le recomendó iniciar cuanto antes la terapia indicada, con el objetivo no solo de prolongar la esperanza de vida del paciente, sino también de mejorar su calidad de vida. Sin embargo, Riley decidió no seguir estas indicaciones médicas.
En su lugar, comenzó a consultar de forma recurrente a Perplexity, un sistema de inteligencia artificial conversacional. A partir de estas interacciones, el paciente llegó a desarrollar la creencia de que sufría una complicación extremadamente agresiva conocida como “transformación de Richter”, una condición que en su caso no había sido diagnosticada por los especialistas. Ese supuesto autodiagnóstico, construido a partir de respuestas de la IA, influyó de manera decisiva en su rechazo al tratamiento recomendado.
Según el relato de su familia, recogido por Corriere della Sera, Riley contaba con una sólida formación académica: era doctor en neurociencia por la Universidad de Florida y autor de más de 50 publicaciones científicas. A pesar de ello, comenzó a otorgar mayor credibilidad a las respuestas del chatbot que a la opinión de su equipo médico. Incluso llegó a compartir estas interpretaciones con su oncólogo, lo que generó preocupación entre los profesionales sanitarios.
La confianza en la IA frente a la evidencia médica
Con el paso de los meses, la situación se volvió cada vez más compleja. Mientras el paciente se mantenía firme en su decisión, su familia desconocía la magnitud de las conversaciones que estaba manteniendo con la inteligencia artificial.
Joseph Riley tardó varios meses en aceptar iniciar el tratamiento oncológico que se le había recomendado desde el principio. Para entonces, la enfermedad había avanzado de manera significativa, reduciendo de forma considerable las opciones terapéuticas disponibles. Finalmente, el paciente falleció a los 73 años a causa de la leucemia linfocítica crónica.
No fue hasta más adelante, a través del acceso a su historial médico digital, cuando su hijo, Benjamin Riley, descubrió el alcance real de estas interacciones.
Benjamin llegó incluso a contactar con los investigadores citados por la IA en sus respuestas, quienes negaron las conclusiones atribuidas por el sistema. Según explicaron, la herramienta había interpretado de forma incorrecta los estudios científicos, generando una lectura errónea que no debía haberse utilizado como base para tomar decisiones clínicas.
Tiempo más tarde, su hijo reflexionó sobre lo ocurrido en su blog personal, donde advirtió del peligro de la confianza ciega en este tipo de herramientas. “No quiero exagerar mi caso; no creo que la inteligencia artificial haya matado a mi padre”, escribió. “Pero en un mundo donde existe la IA, puede amplificar creencias erróneas y reforzar decisiones que no siempre son correctas”.
También señaló que, sin la presencia de la inteligencia artificial, probablemente su padre habría recurrido a otras fuentes para justificar su rechazo inicial al tratamiento, pero que esta tecnología actuó como un amplificador de sus dudas y convicciones.