Si usas ChatGPT como tu médico personal puedes estar en riesgo: nunca le confíes esta información

La primera advertencia es que el chatbot no sustituye el diagnóstico profesional ni garantiza la privacidad del usuario

Guardar
(Imagen Ilustrativa Infobae)
Un millón de personas consulta cada semana a ChatGPT sobre salud mental, según una exinvestigadora de OpenAI. (Imagen Ilustrativa Infobae)

Cada semana, un millón de personas le cuentan sus problemas de salud mental a ChatGPT. No a un psicólogo, ni a un amigo: a un chatbot que almacena cada palabra escrita y la utiliza para entrenar futuros modelos de inteligencia artificial.

Esta cifra, revelada por la exinvestigadora de OpenAI, Zoe Hitzig, en The New York Times, expone el fenómeno masivo de confiar en la inteligencia artificial para resolver dudas sanitarias y las graves consecuencias en materia de privacidad y seguridad.

La tendencia va en aumento, al punto de que empresas como OpenAI y Anthropic han lanzado chatbots específicos para analizar historiales médicos y ofrecer respuestas personalizadas sobre salud. Sin embargo, expertos y estudios recientes advierten una y otra vez: estos sistemas no sustituyen el diagnóstico profesional y pueden poner en riesgo tanto la salud como la privacidad del usuario.

Qué datos de salud nunca deberías compartir con ChatGPT

El uso de ChatGPT y otras IAs conversacionales para consultas médicas se ha normalizado, pero existen límites claros y concretos sobre qué información jamás debe compartirse. ASHO, empresa tecnológica de salud, subraya que los historiales médicos están protegidos dentro de hospitales y centros oficiales por leyes estrictas como el Reglamento General de Protección de Datos (RGPD) y el Esquema Nacional de Seguridad (ENS). Cuando se trasladan esos datos a una plataforma externa como ChatGPT, esa protección desaparece.

(Imagen Ilustrativa Infobae)
Expertos advierten que la inteligencia artificial no sustituye el diagnóstico profesional ni garantiza la privacidad del usuario. (Imagen Ilustrativa Infobae)

Los expertos coinciden en que nunca se debe introducir en una IA:

  • Diagnósticos médicos concretos asociados a tu nombre.
  • Detalles sobre medicación y dosis.
  • Resultados de análisis o pruebas clínicas.
  • Historial de enfermedades familiares.
  • Pensamientos suicidas o autolesivos (en estos casos, se debe buscar ayuda profesional).
  • Números de cuenta bancaria o tarjetas si los documentos médicos lo incluyen.
  • Nombres y apellidos reales de terceros implicados en situaciones médicas o legales.
  • Escaneos de documentos como recetas, sentencias o informes médicos originales.

La recomendación es clara: si tienes una consulta sobre síntomas o efectos secundarios de un medicamento, hazlo de forma genérica, sin identificarte ni aportar datos concretos.

Los riesgos de privacidad y filtraciones de datos médicos

Cuando se comparten datos personales de salud con una IA como ChatGPT, esos datos pasan a estar fuera del control sanitario y se gestionan bajo políticas de privacidad mucho más laxas. ASHO advierte que, al tratarse de empresas multinacionales con servidores en distintos países, las garantías varían y el usuario pierde el control sobre quién accede a su información y para qué fines.

Las protecciones legales de datos de salud desaparecen al trasladar información a plataformas externas como ChatGPT y Anthropic. (REUTERS/Dado Ruvic/Illustration/File Photo)
Las protecciones legales de datos de salud desaparecen al trasladar información a plataformas externas como ChatGPT y Anthropic. (REUTERS/Dado Ruvic/Illustration/File Photo)

OpenAI afirma que los datos de salud de los usuarios de ChatGPT Health se mantienen separados de otra información y no se emplean para entrenar modelos, pero los usuarios deben aceptar condiciones específicas y desconectarse manualmente si desean salir del programa.

Además, los datos compartidos con la IA no están protegidos por las leyes federales estadounidenses como la HIPAA, que sí rigen para hospitales y aseguradoras.

Limitaciones, errores y peligros de confiar en la IA para diagnósticos

Un estudio de la Universidad de Oxford publicado en Nature Medicine dejó claro que la inteligencia artificial, incluyendo sistemas como ChatGPT, no mejora la toma de decisiones médicas frente a métodos tradicionales. El ensayo, realizado con casi 1.300 médicos y casos clínicos simulados, mostró que quienes consultaron modelos de IA no tomaron mejores decisiones que aquellos que usaron búsquedas en línea o su propio juicio.

La IA mostró dificultades para reconocer urgencias, ofrecer diagnósticos precisos y solicitar información fundamental para responder adecuadamente. Los investigadores señalaron que la evaluación de estos sistemas mediante pruebas estandarizadas no refleja la complejidad de la comunicación real entre paciente y médico.

(Imagen Ilustrativa Infobae)
La inteligencia artificial muestra limitaciones en diagnósticos médicos precisos y en el reconocimiento de urgencias clínicas. (Imagen Ilustrativa Infobae)

La doctora Rebecca Payne, líder del estudio, advierte que confiar en IA para síntomas puede ser peligroso, ya que puede dar diagnósticos erróneos y no alertar sobre urgencias.

Además, un trabajo publicado en BMJ Open en 2025 evaluó cinco chatbots populares, incluido ChatGPT, ante 250 preguntas sobre cáncer, vacunas, células madre, nutrición y rendimiento deportivo. El resultado fue preocupante: el 50% de las respuestas se consideraron problemáticas, y un 20% muy problemáticas, con riesgos de tratamientos ineficaces o dañinos si el usuario seguía las indicaciones sin consultar a un profesional.