Los chatbots de IA quieren tu historial médico. Ten cuidado.

Reportajes Especiales - Business

Guardar

(Circuits) ; (Tech Fix)

SAN FRANCISCO - Durante los últimos años, la industria tecnológica ha convencido a la gente de que sus chatbots de inteligencia artificial mejoran cuantos más datos les proporciones. El siguiente paso es conseguir que los usuarios compartan su información más sensible: sus historiales médicos.

¿Qué podría salir mal?

Microsoft ha presentado esta semana una herramienta que permitirá a los usuarios compartir historiales de varios proveedores sanitarios con su chatbot, Copilot. Los historiales podrán combinarse con los datos recopilados por el dispositivo de aptitud física del usuario, como un Apple Watch. Tras analizar toda la información, el chatbot ofrecerá una visión general de alto nivel de los problemas de salud del usuario.

El anuncio de Microsoft hace eco de las iniciativas de Amazon, OpenAI y Anthropic, que empezaron a probar herramientas similares --Health AI, ChatGPT Health y Claude for Healthcare-- este año. Al recopilar datos de salud y ofrecer información directa, las empresas, cuyos chatbots de IA han saltado a los titulares por contribuir a la psicosis, el aislamiento y los hábitos poco saludables de algunos usuarios, se adentran en un terreno arriesgado.

(El New York Times demandó a OpenAI y Microsoft, pues alega infracción de los derechos de autor del contenido de las noticias relacionadas con los sistemas de IA. Las dos empresas han negado las pretensiones de la demanda).

En las entrevistas, los médicos dijeron que la asistencia sanitaria asistida por chatbot podría tener ventajas, como ayudar a las personas a conocer mejor su salud en un momento en que la asistencia sanitaria es cada vez más inasequible. Pero compartir los historiales médicos con las empresas tecnológicas crea una serie de riesgos para la privacidad. Al igual que las tecnologías del pasado, que hacían que la gente se preocupara demasiado por su salud, los chatbots también podrían provocar visitas innecesarias al médico.

Esto es lo que debes saber.

¿Cómo funcionaría esto?

En el sitio web y la aplicación móvil Copilot de Microsoft, los usuarios podrán hacer clic en la pestaña "Salud" y crear un perfil tras responder preguntas sobre su edad y sexo. A partir de ahí, los usuarios pueden optar por compartir sus registros de salud y datos de dispositivos como un Apple Watch, Fitbit y un rastreador del sueño Oura.

A continuación, los usuarios pueden incitar al chatbot con preguntas o síntomas al decir cosas como: "No he dormido bien". A continuación, el chatbot analiza los registros sanitarios y los datos de los dispositivos para hacer observaciones, como las tendencias del sueño desde una visita reciente al hospital.

El chatbot también puede hacer un resumen de los problemas de salud a los que hay que prestar atención, como la falta de sueño, la diabetes y la actividad física limitada.

En un principio, los usuarios podrán probar Copilot Health de forma gratuita cuando salga a la venta este año. Microsoft dijo que tenía previsto cobrar una cuota de suscripción para utilizar la herramienta, pero no comunicó el precio.

¿Cuáles son las posibles ventajas potenciales?

Los historiales médicos han sido caóticos y engorrosos de navegar para los pacientes, porque la información puede estar dispersa en varias bases de datos utilizadas por distintos proveedores sanitarios. (Un médico de atención primaria podría tener dificultades para ofrecer información sobre una lesión en el pie, por ejemplo, si el podólogo del paciente utilizara un sistema de historiales diferente). La IA de Microsoft podría ayudar a unir los puntos de muchos proveedores sanitarios distintos, junto con los datos del dispositivo de aptitud física de un usuario.

Microsoft señaló que un médico quizá necesitaría horas para revisar manualmente todos los historiales médicos y los datos de los dispositivos de aptitud física de una persona para obtener una visión general de alto nivel sobre su salud. Afirmó que Copilot Health podría hacerlo en cuestión de segundos.

"Se trata de dar a los consumidores y a los pacientes una visión y una inteligencia increíbles sobre su propio historial y ayudarlos a navegar por retos muy complejos y por un sistema muy complicado que todos hemos creado para ellos", explicó Dominic King, vicepresidente de salud de Microsoft en su división de IA.

Como los costos de la asistencia médica han aumentado, muchos estadounidenses están abandonando la cobertura. Un chatbot de IA podría ser una forma barata de ayudar a la gente a prestar más atención a su salud y a buscar información sobre los síntomas, de forma similar a una búsqueda en un sitio web como WebMD.

¿Cuáles son los riesgos?

En los últimos años, los ciberataques han vulnerado hospitales y sistemas sanitarios. Colocar los historiales médicos en un lugar centralizado hace que esa información sea un objetivo mucho más tentador para los delincuentes, afirma Matthew Green, profesor adjunto de Informática de la Universidad Johns Hopkins. Los datos médicos de una víctima podrían exponer afecciones que desearía mantener en privado.

"Hay una mina de oro de datos de gran valor que está en un solo lugar y que la gente puede conseguir", aseguró Green.

Del mismo modo, los organismos encargados de hacer cumplir la ley que deseen el historial médico de una persona podrían dirigirse a Microsoft en lugar de múltiples proveedores, comentó Mario Trujillo, abogado especializado en privacidad de datos de la Electronic Frontier Foundation, una organización sin ánimo de lucro dedicada a los derechos digitales. Una mujer que busque atención médica reproductiva en un estado que prohíba el aborto podría correr un riesgo mayor, añadió.

Además, la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA, por sus siglas en inglés), que exige estrictamente a los proveedores tradicionales de asistencia sanitaria que protejan la privacidad de los pacientes, no se aplica a las empresas tecnológicas que ofrecen chatbots. Por tanto, estas empresas, que no son proveedores de asistencia sanitaria, aunque ofrezcan servicios similares, podrían hacer lo que quisieran con los historiales médicos, como utilizar la información para entrenar su IA o mostrar anuncios relacionados con las condiciones de salud de un usuario.

Microsoft afirmó que los datos sanitarios de las personas estarían encriptados y no se utilizarían para mejorar su IA o mostrar anuncios dirigidos. También dijo que solo daba acceso a los datos de los clientes a los organismos encargados de hacer cumplir la ley en respuesta a solicitudes legales válidas.

¿Son fiables los consejos de salud de un chatbot?

Microsoft afirma que Copilot Health está pensado para ayudar a las personas a comprender su salud y prepararse para las citas, no para sustituir la experiencia de un médico. Su comunicado de prensa incluye una advertencia de que el chatbot "no pretende diagnosticar, tratar ni prevenir enfermedades".

Girish Nadkarni, director de IA del Sistema Sanitario Monte Sinaí, dijo que era ingenuo pensar que los usuarios no pedirían diagnósticos y consejos a un chatbot que tuviera acceso a todos sus historiales médicos.

"Claro que puedes incluir una cláusula de exención de responsabilidad para no utilizarlo de ese modo", dijo. "Pero la gente va a utilizarlo así. Es la naturaleza humana".

Hasta ahora, la investigación sugiere que los chatbots aún no están preparados para esa responsabilidad.

Un estudio publicado el mes pasado analizaba varios chatbots, entre ellos los de OpenAI y Meta, y descubrió que no eran mejores que una búsqueda web a la hora de guiar a los usuarios hacia los diagnósticos correctos o ayudarlos a determinar qué debían hacer a continuación. La tecnología planteaba riesgos únicos, ya que a veces presentaba información falsa o cambiaba drásticamente los consejos en función de ligeros cambios en la formulación de las preguntas.

Estos puntos débiles ya han dado lugar a errores muy sonados. Por ejemplo, un hombre de 60 años fue internado durante semanas en una unidad psiquiátrica después de que ChatGPT le sugiriera que redujera el consumo de sal y la remplazara por bromuro sódico, lo que le provocó paranoia y alucinaciones.

OpenAI afirmó que la versión actual de ChatGPT era significativamente mejor a la hora de responder a preguntas sobre salud que el modelo, ya eliminado, que se probó en el estudio. Meta no respondió a la solicitud de comentarios.

Algunas nuevas investigaciones sugieren que incluso los modelos que se adaptan a las preguntas de salud de los usuarios, como ChatGPT Health, plantean riesgos. Cuando Nadkarni y sus colegas introdujeron detalles de casos médicos hipotéticos en el modelo, que se publicó en enero, no detectó urgencias de alto riesgo, y en un caso no recomendó acudir a urgencias a una persona con insuficiencia respiratoria inminente.

Otro riesgo es que los resúmenes básicos de un chatbot sobre problemas de salud puedan crear ansiedad, afirmó Lisa Piercey, ex comisionada sanitaria de Tennessee. Un dolor de cabeza por sinusitis en esta época del año quizá sea un síntoma de alergia, pero un chatbot podría plantear la posibilidad de una afección más grave que incite a una visita innecesaria al médico.

"Podría decirte que tienes un tumor cerebral", señaló. "Eso provoca mucha ansiedad".

Copilot Health tampoco ha sido estudiado aún por investigadores independientes. King, de Microsoft, dijo que el chatbot se diseñó para evitar dar consejos médicos incluso ante preguntas puntuales y ofrecer, en cambio, "orientación y apoyo". En vez de decir a los usuarios que padecen una enfermedad concreta, puede proporcionar una lista de posibles diagnósticos. En lugar de recomendar un medicamento, puede proporcionar algunas preguntas que los usuarios pueden hacer a sus médicos.

La empresa también dijo que estaba lanzando Copilot Health poco a poco, mientras prueba nuevas funciones con un pequeño grupo de usuarios a cada paso, para garantizar que la experiencia siguiera siendo segura y confiable.

Siguiendo los pasos de rivales como Amazon y OpenAI, Microsoft está actualizando su asistente con inteligencia artificial para hacer un seguimiento de tu salud. (Sisi Yu/The New York Times)