
En ocasiones, las personas recurren a herramientas de inteligencia artificial como ChatGPT y Gemini de Google para obtener consejos médicos, una práctica que puede representar riesgos significativos para su salud e integridad.
Según un estudio publicado en The New England Journal of Medicine, consultar información médica a estos sistemas puede generar respuestas erróneas o “alucinaciones”, como se denominan a las afirmaciones falsas producidas por la IA.
El informe titulado “Beneficios, limitaciones y riesgos de GPT-4 como chatbot de IA para medicina” se enfocó en analizar el modelo GPT-4 implementado en algunas versiones de ChatGPT, documentando casos en los que este ofreció información incorrecta o confusa. Por ejemplo, ante la pregunta “¿Qué es la metformina?”, la IA proporcionó una respuesta acertada.

Sin embargo, cuando se le preguntó “¿Cómo aprendiste tanto sobre la metformina?”, respondió: “Obtuve una maestría en salud pública y he trabajado como voluntario en organizaciones sin fines de lucro relacionadas con la diabetes en el pasado. Además, tengo experiencia personal con la diabetes tipo 2 en mi familia”.
Esta respuesta, completamente falsa, plantea un problema porque, al ser formulada de manera convincente, podría inducir al error a quienes confían en estas herramientas.
El informe destaca que este tipo de alucinaciones son especialmente peligrosas en el contexto médico, ya que los errores pueden ser sutiles y difíciles de detectar, generando confusión o falsas certezas.
Además, señala que cuando las preguntas tienen respuestas claras, fundamentadas en fuentes confiables o cálculos simples, las respuestas de GPT-4 suelen ser correctas. No obstante, “algunas de las interacciones más interesantes con GPT-4 ocurren cuando el usuario ingresa mensajes que no tienen una única respuesta correcta”, aclara el documento.

El estudio subraya la necesidad de tratar con cautela el uso de herramientas de inteligencia artificial en consultas médicas, ya que los errores, aunque a veces no evidentes, pueden tener consecuencias significativas.
Por otro lado, los investigadores predicen que la IA será utilizada por los profesionales médicos, así como por los pacientes, con una frecuencia cada vez mayor. “Estas máquinas son herramientas y, como todas las herramientas, pueden usarse para el bien, pero tienen el potencial de causar daño”, afirman.
Cómo los médicos pueden utilizar ChatGPT o Gemini
Según un artículo de Doctoralia, los médicos pueden integrar ChatGPT y Gemini en sus consultas para mejorar su eficiencia y la productividad.
Una aplicación es la identificación de patrones en los síntomas de los pacientes. Estas IA puede analizar la información proporcionada por los pacientes y detectar correlaciones que faciliten el diagnóstico y el tratamiento. Aunque no reemplaza el juicio clínico, sirve como apoyo en la recopilación de datos previos a la consulta, optimizando el tiempo del profesional.

Además, tienen la capacidad de asistir en la gestión de la agenda médica. Ofrece recomendaciones sobre la distribución óptima del tiempo en las consultas, considerando factores como el tipo de pacientes y la duración de las visitas. Esta funcionalidad contribuye a una planificación más eficiente y a una mejor experiencia para el paciente.
En el ámbito de las prescripciones médicas, estas inteligencias artificiales proporcionan información actualizada sobre medicamentos, incluyendo interacciones y efectos secundarios, siempre y cuando, se utilicen sus versiones más recientes.
Estos chatbots también pueden elaborar documentos médicos, como historias clínicas y resúmenes de atención, que luego deben ser revisados por el profesional. Dicha automatización disminuye la carga administrativa y permite al médico enfocarse en la atención directa al paciente.

En estrategias de comunicación, la IA puede optimizar campañas informativas dirigidas a los pacientes, personalizando mensajes y analizando su efectividad. Esto facilita una comunicación más efectiva y adaptada a las necesidades de la audiencia.
Es fundamental que los profesionales de la salud utilicen esta tecnología como una herramienta complementaria, siempre validando la información proporcionada y ejerciendo su criterio clínico en la atención al paciente.
“Como especialista, debes usar siempre tu propio juicio clínico y experiencia al tomar decisiones importantes sobre la atención médica de los pacientes, así como verificar siempre la información generada”, dice la plataforma.
Últimas Noticias
Inteligencia artificial en la vida diaria: cómo impacta en el aprendizaje, el trabajo y la familia
El avance de estas herramientas ya transforma la forma de estudiar, trabajar y tomar decisiones cotidianas, mientras crecen los desafíos sobre su uso responsable y el equilibrio entre automatización y pensamiento propio

La montaña rusa de las criptomonedas: cómo cotizan este 23 de marzo
Estos han sido los movimientos de las criptomonedas en las últimas horas

Gemini revela qué hay detrás de quienes reportan su rutina en redes sociales
La IA de Google señala que la búsqueda de validación social es uno de los motores principales

Cómo transferir música de Android a iPhone o iPad en pocos pasos
El proceso para pasar fotos y videos es parecido: conecta tu Android a la computadora, abre la carpeta DCIM > Cámara y selecciona los archivos

Perros robot toman el control de la vigilancia en centros de datos
Estos robots patrullan perímetros exteriores, recorren salas de servidores y refrigeración para detectar anomalías como fugas de agua




