
En ocasiones, las personas recurren a herramientas de inteligencia artificial como ChatGPT y Gemini de Google para obtener consejos médicos, una práctica que puede representar riesgos significativos para su salud e integridad.
Según un estudio publicado en The New England Journal of Medicine, consultar información médica a estos sistemas puede generar respuestas erróneas o “alucinaciones”, como se denominan a las afirmaciones falsas producidas por la IA.
PUBLICIDAD
El informe titulado “Beneficios, limitaciones y riesgos de GPT-4 como chatbot de IA para medicina” se enfocó en analizar el modelo GPT-4 implementado en algunas versiones de ChatGPT, documentando casos en los que este ofreció información incorrecta o confusa. Por ejemplo, ante la pregunta “¿Qué es la metformina?”, la IA proporcionó una respuesta acertada.

Sin embargo, cuando se le preguntó “¿Cómo aprendiste tanto sobre la metformina?”, respondió: “Obtuve una maestría en salud pública y he trabajado como voluntario en organizaciones sin fines de lucro relacionadas con la diabetes en el pasado. Además, tengo experiencia personal con la diabetes tipo 2 en mi familia”.
PUBLICIDAD
Esta respuesta, completamente falsa, plantea un problema porque, al ser formulada de manera convincente, podría inducir al error a quienes confían en estas herramientas.
El informe destaca que este tipo de alucinaciones son especialmente peligrosas en el contexto médico, ya que los errores pueden ser sutiles y difíciles de detectar, generando confusión o falsas certezas.
PUBLICIDAD
Además, señala que cuando las preguntas tienen respuestas claras, fundamentadas en fuentes confiables o cálculos simples, las respuestas de GPT-4 suelen ser correctas. No obstante, “algunas de las interacciones más interesantes con GPT-4 ocurren cuando el usuario ingresa mensajes que no tienen una única respuesta correcta”, aclara el documento.

El estudio subraya la necesidad de tratar con cautela el uso de herramientas de inteligencia artificial en consultas médicas, ya que los errores, aunque a veces no evidentes, pueden tener consecuencias significativas.
PUBLICIDAD
Por otro lado, los investigadores predicen que la IA será utilizada por los profesionales médicos, así como por los pacientes, con una frecuencia cada vez mayor. “Estas máquinas son herramientas y, como todas las herramientas, pueden usarse para el bien, pero tienen el potencial de causar daño”, afirman.
Cómo los médicos pueden utilizar ChatGPT o Gemini
Según un artículo de Doctoralia, los médicos pueden integrar ChatGPT y Gemini en sus consultas para mejorar su eficiencia y la productividad.
PUBLICIDAD
Una aplicación es la identificación de patrones en los síntomas de los pacientes. Estas IA puede analizar la información proporcionada por los pacientes y detectar correlaciones que faciliten el diagnóstico y el tratamiento. Aunque no reemplaza el juicio clínico, sirve como apoyo en la recopilación de datos previos a la consulta, optimizando el tiempo del profesional.

Además, tienen la capacidad de asistir en la gestión de la agenda médica. Ofrece recomendaciones sobre la distribución óptima del tiempo en las consultas, considerando factores como el tipo de pacientes y la duración de las visitas. Esta funcionalidad contribuye a una planificación más eficiente y a una mejor experiencia para el paciente.
PUBLICIDAD
En el ámbito de las prescripciones médicas, estas inteligencias artificiales proporcionan información actualizada sobre medicamentos, incluyendo interacciones y efectos secundarios, siempre y cuando, se utilicen sus versiones más recientes.
Estos chatbots también pueden elaborar documentos médicos, como historias clínicas y resúmenes de atención, que luego deben ser revisados por el profesional. Dicha automatización disminuye la carga administrativa y permite al médico enfocarse en la atención directa al paciente.
PUBLICIDAD

En estrategias de comunicación, la IA puede optimizar campañas informativas dirigidas a los pacientes, personalizando mensajes y analizando su efectividad. Esto facilita una comunicación más efectiva y adaptada a las necesidades de la audiencia.
Es fundamental que los profesionales de la salud utilicen esta tecnología como una herramienta complementaria, siempre validando la información proporcionada y ejerciendo su criterio clínico en la atención al paciente.
PUBLICIDAD
“Como especialista, debes usar siempre tu propio juicio clínico y experiencia al tomar decisiones importantes sobre la atención médica de los pacientes, así como verificar siempre la información generada”, dice la plataforma.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
Este es el prompt que debes usar en Gemini para recrear que estas en un partido de la Copa Mundial FIFA 2026
Los usuarios deben escoger una foto clara y que tenga buena iluminación para que la IA genere el video de forma efectiva

Xbox ahora aparece en mayúsculas: qué cambió realmente en la marca
La CEO Asha Sharma promovió este cambio tras consultar a la comunidad en X, dando inicio a una nueva estrategia de rebranding
La computación cuántica da un paso histórico con la primera teletransportación en Internet de alta velocidad
El avance podría acelerar el desarrollo de un Internet cuántico capaz de ofrecer comunicaciones prácticamente imposibles de hackear




