
En ocasiones, las personas recurren a herramientas de inteligencia artificial como ChatGPT y Gemini de Google para obtener consejos médicos, una práctica que puede representar riesgos significativos para su salud e integridad.
Según un estudio publicado en The New England Journal of Medicine, consultar información médica a estos sistemas puede generar respuestas erróneas o “alucinaciones”, como se denominan a las afirmaciones falsas producidas por la IA.
El informe titulado “Beneficios, limitaciones y riesgos de GPT-4 como chatbot de IA para medicina” se enfocó en analizar el modelo GPT-4 implementado en algunas versiones de ChatGPT, documentando casos en los que este ofreció información incorrecta o confusa. Por ejemplo, ante la pregunta “¿Qué es la metformina?”, la IA proporcionó una respuesta acertada.

Sin embargo, cuando se le preguntó “¿Cómo aprendiste tanto sobre la metformina?”, respondió: “Obtuve una maestría en salud pública y he trabajado como voluntario en organizaciones sin fines de lucro relacionadas con la diabetes en el pasado. Además, tengo experiencia personal con la diabetes tipo 2 en mi familia”.
Esta respuesta, completamente falsa, plantea un problema porque, al ser formulada de manera convincente, podría inducir al error a quienes confían en estas herramientas.
El informe destaca que este tipo de alucinaciones son especialmente peligrosas en el contexto médico, ya que los errores pueden ser sutiles y difíciles de detectar, generando confusión o falsas certezas.
Además, señala que cuando las preguntas tienen respuestas claras, fundamentadas en fuentes confiables o cálculos simples, las respuestas de GPT-4 suelen ser correctas. No obstante, “algunas de las interacciones más interesantes con GPT-4 ocurren cuando el usuario ingresa mensajes que no tienen una única respuesta correcta”, aclara el documento.

El estudio subraya la necesidad de tratar con cautela el uso de herramientas de inteligencia artificial en consultas médicas, ya que los errores, aunque a veces no evidentes, pueden tener consecuencias significativas.
Por otro lado, los investigadores predicen que la IA será utilizada por los profesionales médicos, así como por los pacientes, con una frecuencia cada vez mayor. “Estas máquinas son herramientas y, como todas las herramientas, pueden usarse para el bien, pero tienen el potencial de causar daño”, afirman.
Cómo los médicos pueden utilizar ChatGPT o Gemini
Según un artículo de Doctoralia, los médicos pueden integrar ChatGPT y Gemini en sus consultas para mejorar su eficiencia y la productividad.
Una aplicación es la identificación de patrones en los síntomas de los pacientes. Estas IA puede analizar la información proporcionada por los pacientes y detectar correlaciones que faciliten el diagnóstico y el tratamiento. Aunque no reemplaza el juicio clínico, sirve como apoyo en la recopilación de datos previos a la consulta, optimizando el tiempo del profesional.

Además, tienen la capacidad de asistir en la gestión de la agenda médica. Ofrece recomendaciones sobre la distribución óptima del tiempo en las consultas, considerando factores como el tipo de pacientes y la duración de las visitas. Esta funcionalidad contribuye a una planificación más eficiente y a una mejor experiencia para el paciente.
En el ámbito de las prescripciones médicas, estas inteligencias artificiales proporcionan información actualizada sobre medicamentos, incluyendo interacciones y efectos secundarios, siempre y cuando, se utilicen sus versiones más recientes.
Estos chatbots también pueden elaborar documentos médicos, como historias clínicas y resúmenes de atención, que luego deben ser revisados por el profesional. Dicha automatización disminuye la carga administrativa y permite al médico enfocarse en la atención directa al paciente.

En estrategias de comunicación, la IA puede optimizar campañas informativas dirigidas a los pacientes, personalizando mensajes y analizando su efectividad. Esto facilita una comunicación más efectiva y adaptada a las necesidades de la audiencia.
Es fundamental que los profesionales de la salud utilicen esta tecnología como una herramienta complementaria, siempre validando la información proporcionada y ejerciendo su criterio clínico en la atención al paciente.
“Como especialista, debes usar siempre tu propio juicio clínico y experiencia al tomar decisiones importantes sobre la atención médica de los pacientes, así como verificar siempre la información generada”, dice la plataforma.
Últimas Noticias
Startup de Sam Altman lanza verificador de identidad humana para las compras con agentes de IA
El sistema permite a los comercios digitales asegurarse de que cada transacción automatizada es aprobada por una persona real

Cinco gadgets que te ayudarán a dormir mejor y tener un sueño reparador
Antes de recurrir a dispositivos tecnológicos, es importante incorporar hábitos saludables que favorezcan un sueño profundo

Tesla se transforma y convierte a la energía limpia en su principal motor de crecimiento
Mientras la demanda de autos eléctricos se desacelera, los ingresos récord en energía solar y almacenamiento convierten a la empresa de Elon Musk en un actor clave de la transición energética, señala Forbes

Windows 7 en 2026: así se vería en la actualidad el recordado sistema operativo de Microsoft
El proyecto presentado muestra una interfaz familiar, renovada y adaptada a necesidades actuales

Cómo y para qué eliminar el caché de WhatsApp
Gestionar la caché de esta aplicación móvil es útil porque contribuye a que el teléfono funcione de manera más ágil y rápida



