
La integración de la inteligencia artificial en los dispositivos de salud personales ha generado expectativas y cuestionamientos a partes iguales. Según un análisis de The Washington Post, la reciente función ChatGPT Salud de OpenAI, que conecta la app Salud del iPhone con el chatbot, presentó fallos graves al interpretar datos provenientes del Apple Watch.
Esta herramienta, promocionada como una evolución para la gestión personalizada del bienestar físico, mostró resultados imprecisos y contradictorios cuando se enfrentó a métricas reales de usuarios.
Diez años de datos, un diagnóstico erróneo
La propuesta de OpenAI se basa en la posibilidad de que ChatGPT Salud acceda de forma directa a los datos almacenados en la app Salud del iPhone, incluyendo información recogida por el Apple Watch como frecuencia cardíaca, calidad del sueño, oxigenación en sangre y actividad física diaria. El analista Geoffrey A. Fowler decidió poner a prueba el sistema con una cantidad considerable de información: suministró a la IA registros acumulados durante una década, entre los que destacaban 29 millones de pasos y 6 millones de mediciones cardíacas.

El resultado sorprendió por su falta de precisión. Según el reporte, la herramienta de OpenAI calificó la salud de Fowler con una nota ‘F’, la más baja en la escala utilizada, tras analizar los datos históricos. Al incorporar información adicional, la calificación subió a ‘D’, pero continuó arrojando conclusiones inconsistentes, incluyendo la sugerencia de un presunto riesgo cardiovascular.
El propio Fowler consultó estas apreciaciones con su médico, quien descartó cualquier peligro inmediato y aseguró que no era necesario realizar pruebas o tratamientos adicionales.
La inconsistencia se mantuvo incluso cuando la consulta se repitió varias veces, obteniendo respuestas distintas en cada ocasión. La IA llegó a ignorar detalles fundamentales como la edad y el género del usuario, datos presentes en el historial proporcionado. Este comportamiento pone en duda la capacidad del sistema para ofrecer recomendaciones fiables basadas en registros personales, como puntualizó el análisis del diario estadounidense.

Limitaciones técnicas, legales y de confianza
Aunque OpenAI aclaró que ChatGPT Salud no está diseñada para diagnosticar ni tratar enfermedades, la integración tecnológica puede inducir a error a los usuarios, quienes podrían tomar decisiones importantes basadas en interpretaciones automatizadas.
La confianza depositada en la inteligencia artificial ha crecido con el auge de estas soluciones, pero advirtió sobre los riesgos asociados a las denominadas “alucinaciones” o errores de interpretación de la IA.
Además del aspecto técnico, el informe señala un marco legal todavía indefinido. A diferencia de los servicios médicos tradicionales, la inteligencia artificial aplicada a la salud no está sujeta a normativas estrictas como la Ley de Portabilidad y Responsabilidad de Seguros Médicos (HIPAA, por sus siglas en inglés) en los Estados Unidos.

Esta ausencia de regulación implica que no existen garantías sólidas sobre la privacidad ni responsabilidades profesionales asociadas al tratamiento de la información, situación que preocupa a especialistas.
La tecnología avanza con rapidez y podría consolidarse como una herramienta relevante para el sector sanitario en el futuro. Sin embargo, la evidencia recogida en el experimento con ChatGPT Salud evidencia que la precisión de la inteligencia artificial aún está lejos de igualar el criterio médico humano. Por ello, los expertos recomiendan consultar siempre a profesionales ante cualquier duda relacionada con síntomas o tratamientos y utilizar la IA únicamente como complemento para la comprensión de conceptos generales.
Últimas Noticias
OpenAI lanza Prism, un espacio gratuito con IA para redacción y colaboración científica
Impulsada por GPT-5.2, la nueva plataforma permite que investigadores y equipos colaboren sin restricciones en el número de usuarios

Cómo saber si mi jefe espía mi PC: guía para detectar programas de monitoreo y teletrabajo
Si el dispositivo tiene instaladas apps como AnyDesk, esto significa que puede ser controlado o monitoreado de forma remota por terceros

Steam Machine o PS5 Pro: qué consola conviene comprar en 2026 por potencia y juegos
Ambas consolas disputan el mercado entre quienes priorizan flexibilidad tecnológica y quienes buscan una experiencia cerrada y optimizada

Cómo funcionarían los pagos por IA en WhatsApp e Instagram: lo que sabemos del nuevo plan de Meta
Entre las novedades destaca Manus, un agente de inteligencia artificial diseñado para actuar como asistente avanzado de productividad

El nuevo paradigma de la salud digital: por qué la IA de Google elige el formato video como fuente principal
Un análisis de SE Ranking sobre 50,000 búsquedas revela cómo las “AI Overviews” integran a YouTube para hacer más accesible la información médica. El estudio destaca el ascenso del contenido visual educativo frente a los métodos de consulta tradicionales


