ChatGPT hace recomendaciones médicas y seguirlas es todo un riesgo mortal

El análisis entre el chatbot de OpenAI y especialistas reveló la falta de fiabilidad de la IA al responder pedidos de este tipo de información

Compartir
Compartir articulo
Un reciente estudio destaca que el 74.3% de las respuestas proporcionadas por ChatGPT sobre temas de salud fueron inadecuadas o erróneas. (EFE/EPA/WU HAO)
Un reciente estudio destaca que el 74.3% de las respuestas proporcionadas por ChatGPT sobre temas de salud fueron inadecuadas o erróneas. (EFE/EPA/WU HAO)

Una de las recomendaciones básicas al momento de utilizar una inteligencia artificial es no confiar completamente en que la información que entrega es adecuada o incluso 100% real. En ese sentido, un estudio reciente desarrollado por la Universidad de Long Island, en Nueva York, indica que los usuarios deben tener especial cuidado con la información médica que puede ofrecer la aplicación de ChatGPT con respecto al consumo de pastillas u otros medicamentos.

Los investigadores solicitaron a ChatGPT que responda 39 preguntas relacionadas con medicinas y sus efectos en la salud de las personas. Estas fueron planteadas por el servicio de información sobre medicamentos de la Facultad de Farmacia de la institución, pero solo diez de ellas recibieron una respuesta que pueda considerarse adecuada según los criterios de profesionales humanos.

El análisis, que fue realizado por un periodo de 16 meses entre los años 2022 y 2023, enfrentó a las respuestas creadas por la inteligencia artificial de OpenAI y aquellas que fueron planteadas por un grupo de farmacéuticos especializados, lo cual llevó a la conclusión de que ChatGPT no es fiable en esta materia pues gran parte de los datos que fueron entregados a modo de respuesta fue incompleta o errónea.

El equipo de investigación, que fue dirigido por Sara Grossman, profesora asociada de práctica farmacéutica en la Universidad de Long Island y autora principal del estudio, indicó que el 74.3% de las respuestas del chatbot no superaron el filtro de conocimiento de los especialistas de la salud.

Los investigadores evaluaron 39 preguntas médicas respondidas por ChatGPT y sólo diez recibieron respuestas consideradas adecuadas. (AP Foto/Michael Dwyer, Archivo)
Los investigadores evaluaron 39 preguntas médicas respondidas por ChatGPT y sólo diez recibieron respuestas consideradas adecuadas. (AP Foto/Michael Dwyer, Archivo)

No solo eso, sino que en un intento por verificar las fuentes de información de ChatGPT, se pudo ver que estas fueron ofrecidas solo en ocho ocasiones, pero que en realidad todas eran inexistentes y fueron inventadas por la inteligencia artificial como una forma de crear una falsa idea de sustento para las respuestas. Estos hallazgos fueron presentados en un congreso reciente de la Sociedad Estadounidense de Farmacéuticos del Sistema de Salud (ASHP).

Por ejemplo, en una de las respuestas proporcionadas la inteligencia artificial no pudo identificar la interacción potencialmente peligrosa entre dos medicamentos que, al ser ingeridos juntos, puede causar graves daños a la salud de los pacientes. “Cualquiera que utilice ChatGPT para obtener información relacionada con medicamentos debe verificar la información utilizando fuentes confiables”, enfatizó Grossman.

Gina Luchen, directora de datos y salud digital de la ASHP, indicó que la inteligencia artificial puede tener un gran impacto en la atención en establecimientos de salud como clínicas, pero enfatizó en que al mismo tiempo es necesario que la información que genere debe ser validada por un profesional de la salud para brindar mayor seguridad a los pacientes.

Aparte de los resultados del estudio de la Universidad de Long Island, un estudio similar que pretendía determinar el grado de fiabilidad de la información, que incluyó a GPT-4 (de OpenAI), informó sobre una tasa del 3% en errores de respuestas, evidenciando que incluso el modelo más avanzado de ChatGPT no está exento de fallos.

Incluso el avanzado modelo GPT-4 muestra errores, con un 3% de inexactitudes en respuestas según estudios. (Gabby Jones/Bloomberg)
Incluso el avanzado modelo GPT-4 muestra errores, con un 3% de inexactitudes en respuestas según estudios. (Gabby Jones/Bloomberg)

Información errónea en tratamientos para el cáncer

Por otro lado, investigadores del Brigham and Women’s Hospital, afiliado a la Facultad de Medicina de la Universidad de Harvard, encontraron errores en las respuestas de ChatGPT relacionadas con el cáncer y su tratamiento.

Los hallazgos ponen en evidencia que este tipo de temas deben ser tomados con cuidado por los usuarios, al no considerar sus respuestas como una guía a seguir en el tratamiento y el diagnóstico de enfermedades.

“Nos ha sorprendido el grado en que la información incorrecta se mezclaba con la correcta. Eso hace que sea especialmente difícil detectar errores, incluso para los expertos”, aseguró la doctora Danielle Bitterman, una de las autoras del estudio.

En particular, se encontró al menos un 12.5% de datos inventados. Si bien esto podría no parecer relevante o fácilmente superable, al tratarse de información médica las consecuencias de estos fallos podrían ser fatales y más aún tratándose de una enfermedad como el cáncer.

Últimas Noticias

Tras el granizo en Córdoba y la lluvia en Bahía Blanca, nueve provincias están bajo alerta por tormentas fuertes

La temperatura se elevó a lo largo de todo el día de ayer y la humedad fue en ascenso, pero el termómetro bajará levemente tras las precipitaciones
Tras el granizo en Córdoba y la lluvia en Bahía Blanca, nueve provincias están bajo alerta por tormentas fuertes

Estados Unidos acusó a cuatro personas por transportar armas de fabricación iraní para los rebeldes hutíes de Yemen

Los involucrados dieron información falsa a la Guardia Costera estadounidense sobre el contenido de su embarcación cuando fueron abordados en el Mar Rojo
Estados Unidos acusó a cuatro personas por transportar armas de fabricación iraní para los rebeldes hutíes de Yemen

Potenciar Trabajo: el Gobierno suspendió el pago a más de 22 mil beneficiarios por viajes al exterior

Significará un recorte de 1.755.078.000 pesos mensuales. El fiscal Guillermo Marijuan había denunciado que 160 mil personas cruzaron la frontera mientras cobraban el beneficio de manera irregular. El programa es destinado a personas de “vulnerabilidad social y económica”
Potenciar Trabajo: el Gobierno suspendió el pago a más de 22 mil beneficiarios por viajes al exterior

La ciudad de Orlando amplía restricción a nuevos clubes nocturnos

Como parte de una estrategia para diversificar las ofertas comerciales del centro, el gobierno local trabaja en regulaciones que limitan temporalmente la apertura de puntos de encuentro festivos
La ciudad de Orlando amplía restricción a nuevos clubes nocturnos

La Legislatura de Florida aprueba revelar detalles de la indagación sobre Jeffrey Epstein

Con la firma del gobernador pendiente, se espera que el acceso a testimonios clave y evidencias de la investigación contra el acusado de tráfico sexual de menores esté disponible a partir del mes de julio
La Legislatura de Florida aprueba revelar detalles de la indagación sobre Jeffrey Epstein
MÁS NOTICIAS