
Cada semana, un millón de personas le cuentan sus problemas de salud mental a ChatGPT. No a un psicólogo, ni a un amigo: a un chatbot que almacena cada palabra escrita y la utiliza para entrenar futuros modelos de inteligencia artificial.
Esta cifra, revelada por la exinvestigadora de OpenAI, Zoe Hitzig, en The New York Times, expone el fenómeno masivo de confiar en la inteligencia artificial para resolver dudas sanitarias y las graves consecuencias en materia de privacidad y seguridad.
La tendencia va en aumento, al punto de que empresas como OpenAI y Anthropic han lanzado chatbots específicos para analizar historiales médicos y ofrecer respuestas personalizadas sobre salud. Sin embargo, expertos y estudios recientes advierten una y otra vez: estos sistemas no sustituyen el diagnóstico profesional y pueden poner en riesgo tanto la salud como la privacidad del usuario.
Qué datos de salud nunca deberías compartir con ChatGPT
El uso de ChatGPT y otras IAs conversacionales para consultas médicas se ha normalizado, pero existen límites claros y concretos sobre qué información jamás debe compartirse. ASHO, empresa tecnológica de salud, subraya que los historiales médicos están protegidos dentro de hospitales y centros oficiales por leyes estrictas como el Reglamento General de Protección de Datos (RGPD) y el Esquema Nacional de Seguridad (ENS). Cuando se trasladan esos datos a una plataforma externa como ChatGPT, esa protección desaparece.

Los expertos coinciden en que nunca se debe introducir en una IA:
- Diagnósticos médicos concretos asociados a tu nombre.
- Detalles sobre medicación y dosis.
- Resultados de análisis o pruebas clínicas.
- Historial de enfermedades familiares.
- Pensamientos suicidas o autolesivos (en estos casos, se debe buscar ayuda profesional).
- Números de cuenta bancaria o tarjetas si los documentos médicos lo incluyen.
- Nombres y apellidos reales de terceros implicados en situaciones médicas o legales.
- Escaneos de documentos como recetas, sentencias o informes médicos originales.
La recomendación es clara: si tienes una consulta sobre síntomas o efectos secundarios de un medicamento, hazlo de forma genérica, sin identificarte ni aportar datos concretos.
Los riesgos de privacidad y filtraciones de datos médicos
Cuando se comparten datos personales de salud con una IA como ChatGPT, esos datos pasan a estar fuera del control sanitario y se gestionan bajo políticas de privacidad mucho más laxas. ASHO advierte que, al tratarse de empresas multinacionales con servidores en distintos países, las garantías varían y el usuario pierde el control sobre quién accede a su información y para qué fines.
OpenAI afirma que los datos de salud de los usuarios de ChatGPT Health se mantienen separados de otra información y no se emplean para entrenar modelos, pero los usuarios deben aceptar condiciones específicas y desconectarse manualmente si desean salir del programa.
Además, los datos compartidos con la IA no están protegidos por las leyes federales estadounidenses como la HIPAA, que sí rigen para hospitales y aseguradoras.
Limitaciones, errores y peligros de confiar en la IA para diagnósticos
Un estudio de la Universidad de Oxford publicado en Nature Medicine dejó claro que la inteligencia artificial, incluyendo sistemas como ChatGPT, no mejora la toma de decisiones médicas frente a métodos tradicionales. El ensayo, realizado con casi 1.300 médicos y casos clínicos simulados, mostró que quienes consultaron modelos de IA no tomaron mejores decisiones que aquellos que usaron búsquedas en línea o su propio juicio.
La IA mostró dificultades para reconocer urgencias, ofrecer diagnósticos precisos y solicitar información fundamental para responder adecuadamente. Los investigadores señalaron que la evaluación de estos sistemas mediante pruebas estandarizadas no refleja la complejidad de la comunicación real entre paciente y médico.

La doctora Rebecca Payne, líder del estudio, advierte que confiar en IA para síntomas puede ser peligroso, ya que puede dar diagnósticos erróneos y no alertar sobre urgencias.
Además, un trabajo publicado en BMJ Open en 2025 evaluó cinco chatbots populares, incluido ChatGPT, ante 250 preguntas sobre cáncer, vacunas, células madre, nutrición y rendimiento deportivo. El resultado fue preocupante: el 50% de las respuestas se consideraron problemáticas, y un 20% muy problemáticas, con riesgos de tratamientos ineficaces o dañinos si el usuario seguía las indicaciones sin consultar a un profesional.
Últimas Noticias
Cuatro aparatos que debes alejar del router de WiFi para evitar que el internet funcione lento
Electrodomésticos como el microondas, dispositivos y otros obstáculos físicos pueden ocasionar y prolongar problemas en la red del hogar

Los videos que grabas con tu iPhone estarían arruinándose por culpa de esta función
El Audio Zoom está generando problemas al eliminar sonidos ambientales importantes
Adiós al círculo azul en WhatsApp: Meta AI se transforma y ahora es morado
Este nuevo diseño no afecta las funciones de la IA de Meta, que sigue ofreciendo gestión de tareas, resúmenes de mensajes y edición de imágenes

Jeff Bezos contraataca: Blue Origin demuestra que puede reutilizar cohetes como SpaceX de Elon Musk
Blue Origin logró recuperar con éxito el propulsor de su cohete New Glenn tras completar su tercer vuelo orbital y desplegar un satélite de AST SpaceMobile
El sueño de todo fan de Pokémon: crean una Pokédex igual a la del anime que funciona de verdad
Dos youtubers combinaron hardware avanzado para dar una experiencia igual a la que vivió Ash Ketchum




