Cuidado con los diagnósticos médicos de IA: advierten fallos en ChatGPT Salud desde Apple Watch

Este comportamiento pone en duda la capacidad del sistema para ofrecer recomendaciones fiables basadas en registros personales

ChatGPT Salud analizó datos de una década y emitió diagnósticos inconsistentes sobre el estado físico del usuario. (Composición Infobae)

La integración de la inteligencia artificial en los dispositivos de salud personales ha generado expectativas y cuestionamientos a partes iguales. Según un análisis de The Washington Post, la reciente función ChatGPT Salud de OpenAI, que conecta la app Salud del iPhone con el chatbot, presentó fallos graves al interpretar datos provenientes del Apple Watch.

Esta herramienta, promocionada como una evolución para la gestión personalizada del bienestar físico, mostró resultados imprecisos y contradictorios cuando se enfrentó a métricas reales de usuarios.

Diez años de datos, un diagnóstico erróneo

La propuesta de OpenAI se basa en la posibilidad de que ChatGPT Salud acceda de forma directa a los datos almacenados en la app Salud del iPhone, incluyendo información recogida por el Apple Watch como frecuencia cardíaca, calidad del sueño, oxigenación en sangre y actividad física diaria. El analista Geoffrey A. Fowler decidió poner a prueba el sistema con una cantidad considerable de información: suministró a la IA registros acumulados durante una década, entre los que destacaban 29 millones de pasos y 6 millones de mediciones cardíacas.

Read more!
El sistema de OpenAI calificó la salud del usuario con la nota más baja, pese a la ausencia de riesgos médicos reales. (Reuters)

El resultado sorprendió por su falta de precisión. Según el reporte, la herramienta de OpenAI calificó la salud de Fowler con una nota ‘F’, la más baja en la escala utilizada, tras analizar los datos históricos. Al incorporar información adicional, la calificación subió a ‘D’, pero continuó arrojando conclusiones inconsistentes, incluyendo la sugerencia de un presunto riesgo cardiovascular.

El propio Fowler consultó estas apreciaciones con su médico, quien descartó cualquier peligro inmediato y aseguró que no era necesario realizar pruebas o tratamientos adicionales.

La inconsistencia se mantuvo incluso cuando la consulta se repitió varias veces, obteniendo respuestas distintas en cada ocasión. La IA llegó a ignorar detalles fundamentales como la edad y el género del usuario, datos presentes en el historial proporcionado. Este comportamiento pone en duda la capacidad del sistema para ofrecer recomendaciones fiables basadas en registros personales, como puntualizó el análisis del diario estadounidense.

Especialistas advierten que la IA aplicada a la salud no está sujeta a regulaciones estrictas sobre privacidad. (Imagen Ilustrativa Infobae)

Limitaciones técnicas, legales y de confianza

Aunque OpenAI aclaró que ChatGPT Salud no está diseñada para diagnosticar ni tratar enfermedades, la integración tecnológica puede inducir a error a los usuarios, quienes podrían tomar decisiones importantes basadas en interpretaciones automatizadas.

La confianza depositada en la inteligencia artificial ha crecido con el auge de estas soluciones, pero advirtió sobre los riesgos asociados a las denominadas “alucinaciones” o errores de interpretación de la IA.

Además del aspecto técnico, el informe señala un marco legal todavía indefinido. A diferencia de los servicios médicos tradicionales, la inteligencia artificial aplicada a la salud no está sujeta a normativas estrictas como la Ley de Portabilidad y Responsabilidad de Seguros Médicos (HIPAA, por sus siglas en inglés) en los Estados Unidos.

OpenAI aclara que ChatGPT Salud no debe usarse para diagnósticos, tras cuestionamientos por interpretaciones erróneas. (Europa Press)

Esta ausencia de regulación implica que no existen garantías sólidas sobre la privacidad ni responsabilidades profesionales asociadas al tratamiento de la información, situación que preocupa a especialistas.

La tecnología avanza con rapidez y podría consolidarse como una herramienta relevante para el sector sanitario en el futuro. Sin embargo, la evidencia recogida en el experimento con ChatGPT Salud evidencia que la precisión de la inteligencia artificial aún está lejos de igualar el criterio médico humano. Por ello, los expertos recomiendan consultar siempre a profesionales ante cualquier duda relacionada con síntomas o tratamientos y utilizar la IA únicamente como complemento para la comprensión de conceptos generales.

Read more!