La gente está subiendo sus historiales médicos a chatbots de IA

Reportajes Especiales - Business

Guardar

Mollie Kerr, una neoyorquina de 26 años que vive en Londres, se asustó este verano cuando sus análisis de sangre mostraron desequilibrios hormonales.

Después de ver los resultados en el portal web de pacientes, sintió mucho miedo como para esperar a hablar con su médico. Así que, con cierta inquietud, pegó el informe completo en ChatGPT. El chatbot le dijo que los resultados podían indicar varias afecciones, pero que "lo más probable" era que se tratara de un tumor hipofisario o de una enfermedad poco común relacionada con los tumores hipofisarios.

Las conjeturas del chatbot no estaban descartadas --el médico de Kerr estuvo de acuerdo en pedir una resonancia magnética para comprobarlo--, pero eran erróneas. No se detectó ningún tumor.

Otro paciente, Elliot Royce, de 63 años, tuvo una experiencia diferente después de subir cinco años de su historial médico a ChatGPT, incluida la documentación de una cardiopatía compleja y un infarto anterior.

Empezó a sentirse más incómodo al hacer ejercicio, y una prueba indicó que tenía una arteria parcialmente obstruida. Su médico creía que, de momento, bastaría con una estrecha vigilancia. Con base en lo que aconsejó ChatGPT, Royce decidió someterse a un procedimiento diagnóstico más invasivo, que reveló una obstrucción del 85 por ciento, un problema grave que se trató con un "stent".

En todo el mundo, millones de personas utilizan chatbots para tratar de entender mejor su salud. Y algunos, como Kerr y Royce, van más allá de las simples preguntas médicas. Ellos y más de una decena de personas que hablaron con The New York Times han entregado resultados de laboratorio, imágenes médicas, notas del médico, informes quirúrgicos y otros documentos a los chatbots.

La inexactitud de la información es una de las principales preocupaciones. Algunos estudios han revelado que las personas sin formación médica obtienen diagnósticos correctos de los chatbots en menos de la mitad de las ocasiones y la carga de datos confidenciales añade riesgos para la privacidad a cambio de respuestas que pueden parecer más personalizadas.

Danielle Bitterman, profesora adjunta de la Facultad de Medicina de Harvard y responsable clínica de ciencia de datos e inteligencia artificial en Mass General Brigham, afirma que no es seguro asumir que los chatbots personalizan el análisis que realizan de los resultados de pruebas médicas. Sus investigaciones han revelado que los chatbots pueden inclinarse a ofrecer respuestas de aplicación más general, incluso cuando se les da contexto sobre pacientes específicos.

"Que se proporcione toda esa información a los modelos lingüísticos no significa que la utilicen de la misma forma en que lo haría un médico", explicó.

Y una vez que las personas cargan este tipo de datos, tienen un control limitado sobre cómo se utilizan.

HIPAA, la ley federal de privacidad en materia de salud, no se aplica a las empresas que están detrás de los populares chatbots. Según Bradley Malin, profesor de Informática Biomédica en el Centro Médico de la Universidad de Vanderbilt, "básicamente se renuncia a cualquier derecho que se tenga con respecto a la privacidad médica", y solo quedan las protecciones que una empresa determinada decida ofrecer.

OpenAI, creador de ChatGPT, afirma que cuenta con amplias medidas de protección de la información privada de sus usuarios.

Un representante señaló que los usuarios pueden optar por que no se utilicen sus chats para entrenar futuros modelos y afirmó que la empresa puso a prueba sus sistemas contra ataques simulados. También dijo que comparte un mínimo de datos con proveedores de servicios de terceros. (El Times demandó a OpenAI por infracción de los derechos de autor del contenido de noticias. OpenAI negó las acusaciones).

Aun así, los expertos en privacidad de datos afirman que subir información médica a cualquier chatbot entraña riesgos porque varían las políticas de los chatbots y porque es muy difícil eliminar todas las vulnerabilidades.

Uno de los problemas es que muchas personas no optan por no entregar sus datos para el entrenamiento de chatbots. Esto crea la posibilidad de que, si una persona sube datos médicos y otra persona pregunta a un futuro modelo sobre esa persona, un chatbot "podría filtrar accidentalmente información muy sensible", explicó Karni Chagal-Feferkorn, profesora adjunta de la Facultad Bellini de Inteligencia Artificial, Ciberseguridad e Informática de la Universidad del Sur de Florida.

OpenAI afirma que se está ocupando de "minimizar" esta posibilidad, y el representante de la compañía aseguró que ChatGPT estaba entrenado para no aprender ni revelar ese tipo de información. Pero los expertos en privacidad de datos siguen considerando esa posibilidad.

"Sin duda, sus medidas reducen el riesgo, pero no son infalibles y probablemente no puedan serlo", dijo Chagal-Feferkorn. "No hay que tener miedo a la tecnología, pero hay que ser muy conscientes de los riesgos", añadió.

Algunos pacientes dijeron que habían tachado sus nombres y eliminado los metadatos antes de compartir sus historiales con los chatbots, pero puede que eso no sea suficiente. Según Rainu Kaushal, director del Departamento de Ciencias de la Salud de la Población del Centro Médico Weill Cornell y del Hospital Presbiteriano de Nueva York, a veces es posible relacionar información suficientemente detallada con personas concretas, aunque no se incluyan sus nombres.

Las consecuencias de la filtración de información sanitaria pueden ser graves. Por ejemplo, aunque para la mayoría de los empresarios es ilegal discriminar a las personas con discapacidad, no es poco común que ocurra.

Pero la mayoría de las personas que hablaron con el Times dijeron que no estaban preocupadas.

"Mi móvil me sigue adonde vaya", comentó Robert Gebhardt, de 88 años, que pide a ChatGPT que evalúe la urgencia de sus síntomas y la idoneidad de sus medicamentos, dados los 15 años de historiales médicos que cargó en el sitio web. "Cualquiera que quiera saber algo de mí puede averiguarlo, incluidos mis datos médicos. Es un hecho de la vida, y ya lo acepté".

Stephanie Landa, de 53 años, ha introducido los resultados de sus pruebas en ChatGPT desde que el año pasado le diagnosticaron un cáncer de apéndice metastásico. Valora que ChatGPT le ofrezca un panorama inmediato de sus resultados, sobre todo cuando son devastadores, como cuando mostraron que el cáncer se había extendido por todo el abdomen. Si procesa las malas noticias antes de la visita al médico, puede aprovechar mejor el tiempo de la consulta.

Durante un tiempo, redactó minuciosamente los datos identificativos. Pero luego decidió que, dado el pronóstico de su cáncer agresivo, ya no le importaba.

En cuanto a Kerr, un endocrinólogo no pudo ayudarla tras descartar el tumor, relató, y su médico de cabecera no ha podido resolver el misterio.

Así que ha vuelto a recurrir a ChatGPT en busca de nuevas sugerencias diagnósticas y consejos dietéticos, algunos de los cuales le han resultado útiles.

"Sé que es información delicada", afirma. "Pero también siento que no obtengo respuestas de ningún otro lado".

A pesar de los riesgos para la privacidad y las preocupaciones por la inexactitud, la gente introduce resultados de análisis de sangre, notas médicas e informes quirúrgicos en ChatGPT y chatbots similares. (Ricardo Santos/The New York Times)