
En ocasiones, las personas recurren a herramientas de inteligencia artificial como ChatGPT y Gemini de Google para obtener consejos médicos, una práctica que puede representar riesgos significativos para su salud e integridad.
Según un estudio publicado en The New England Journal of Medicine, consultar información médica a estos sistemas puede generar respuestas erróneas o “alucinaciones”, como se denominan a las afirmaciones falsas producidas por la IA.
El informe titulado “Beneficios, limitaciones y riesgos de GPT-4 como chatbot de IA para medicina” se enfocó en analizar el modelo GPT-4 implementado en algunas versiones de ChatGPT, documentando casos en los que este ofreció información incorrecta o confusa. Por ejemplo, ante la pregunta “¿Qué es la metformina?”, la IA proporcionó una respuesta acertada.

Sin embargo, cuando se le preguntó “¿Cómo aprendiste tanto sobre la metformina?”, respondió: “Obtuve una maestría en salud pública y he trabajado como voluntario en organizaciones sin fines de lucro relacionadas con la diabetes en el pasado. Además, tengo experiencia personal con la diabetes tipo 2 en mi familia”.
Esta respuesta, completamente falsa, plantea un problema porque, al ser formulada de manera convincente, podría inducir al error a quienes confían en estas herramientas.
El informe destaca que este tipo de alucinaciones son especialmente peligrosas en el contexto médico, ya que los errores pueden ser sutiles y difíciles de detectar, generando confusión o falsas certezas.
Además, señala que cuando las preguntas tienen respuestas claras, fundamentadas en fuentes confiables o cálculos simples, las respuestas de GPT-4 suelen ser correctas. No obstante, “algunas de las interacciones más interesantes con GPT-4 ocurren cuando el usuario ingresa mensajes que no tienen una única respuesta correcta”, aclara el documento.

El estudio subraya la necesidad de tratar con cautela el uso de herramientas de inteligencia artificial en consultas médicas, ya que los errores, aunque a veces no evidentes, pueden tener consecuencias significativas.
Por otro lado, los investigadores predicen que la IA será utilizada por los profesionales médicos, así como por los pacientes, con una frecuencia cada vez mayor. “Estas máquinas son herramientas y, como todas las herramientas, pueden usarse para el bien, pero tienen el potencial de causar daño”, afirman.
Cómo los médicos pueden utilizar ChatGPT o Gemini
Según un artículo de Doctoralia, los médicos pueden integrar ChatGPT y Gemini en sus consultas para mejorar su eficiencia y la productividad.
Una aplicación es la identificación de patrones en los síntomas de los pacientes. Estas IA puede analizar la información proporcionada por los pacientes y detectar correlaciones que faciliten el diagnóstico y el tratamiento. Aunque no reemplaza el juicio clínico, sirve como apoyo en la recopilación de datos previos a la consulta, optimizando el tiempo del profesional.

Además, tienen la capacidad de asistir en la gestión de la agenda médica. Ofrece recomendaciones sobre la distribución óptima del tiempo en las consultas, considerando factores como el tipo de pacientes y la duración de las visitas. Esta funcionalidad contribuye a una planificación más eficiente y a una mejor experiencia para el paciente.
En el ámbito de las prescripciones médicas, estas inteligencias artificiales proporcionan información actualizada sobre medicamentos, incluyendo interacciones y efectos secundarios, siempre y cuando, se utilicen sus versiones más recientes.
Estos chatbots también pueden elaborar documentos médicos, como historias clínicas y resúmenes de atención, que luego deben ser revisados por el profesional. Dicha automatización disminuye la carga administrativa y permite al médico enfocarse en la atención directa al paciente.

En estrategias de comunicación, la IA puede optimizar campañas informativas dirigidas a los pacientes, personalizando mensajes y analizando su efectividad. Esto facilita una comunicación más efectiva y adaptada a las necesidades de la audiencia.
Es fundamental que los profesionales de la salud utilicen esta tecnología como una herramienta complementaria, siempre validando la información proporcionada y ejerciendo su criterio clínico en la atención al paciente.
“Como especialista, debes usar siempre tu propio juicio clínico y experiencia al tomar decisiones importantes sobre la atención médica de los pacientes, así como verificar siempre la información generada”, dice la plataforma.
Últimas Noticias
El avance de la inteligencia artificial autónoma revoluciona la automatización en el entorno corporativo
Herramientas digitales especializadas optimizan los procesos diarios y promueven nuevos perfiles profesionales en el ecosistema laboral

¿Cómo dominar el mundo por 5 décadas? La lección de un gigante en el 50 aniversario de Apple
Tim Cook contó que el legado de Steve Jobs sigue en el ADN, guiando cada decisión y orientando la visión de la empresa
Qué es el AI brain fry: el fenómeno que puede “freírte el cerebro” por abuso de inteligencia artificial en el trabajo
El uso intensivo de herramientas inteligentes puede derivar en agotamiento, confusión y problemas de salud mental

Gemini de Google ahora lee tu mente: qué comida te gusta, cuál es tu auto y más con IA
La IA tendrá información de Gmail, Fotos, Calendario y otras aplicaciones para ofrecer recomendaciones personalizadas

Demandan a Valve por su sistema de cajas de botín: acusan a la compañía de fomentar el juego de azar digital
La compañía detrás de Steam es acusada de incentivar prácticas similares al juego de azar a través de sistemas de recompensas aleatorias




