Uno de cada cuatro diagnósticos médicos generados por IA es inventado, pero muchos usuarios confían en ellos

De acuerdo con un estudio de investigadores del MIT, los participantes demostraron una preferencia por las respuestas generadas por inteligencia artificial, considerándolas las más completas

Guardar
La investigación incluyó a trescientas
La investigación incluyó a trescientas personas con y sin conocimientos médicos. (Imagen ilustrativa Infobae)

Uno de cada cuatro diagnósticos médicos generados por IA es inventado, pero esto no parece disuadir a los usuarios, quienes siguen confiando en este tipo de herramientas incluso para temas de salud. Pese a las advertencias de numerosos profesionales de la medicina, la popularidad de plataformas como ChatGPT para consultas médicas sigue creciendo, reflejando una tendencia preocupante en la relación entre tecnología y confianza pública.

Diagnósticos médicos por IA: confianza a pesar del error

Según un estudio reciente realizado por investigadores del MIT y publicado en The New England Journal of Medicine, las personas tienden a calificar las respuestas médicas generadas por inteligencia artificial como más fiables y completas que las ofrecidas por médicos reales o plataformas digitales especializadas.

La investigación incluyó a trescientas personas con y sin conocimientos médicos, quienes evaluaron tres tipos de respuestas ante consultas clínicas: una de un profesional de la salud, otra de una plataforma digital y una tercera de un sistema de IA.

Uno de cada cuatro diagnósticos
Uno de cada cuatro diagnósticos médicos generados por IA es incorrecto o inventado, pero esto no parece disuadir a los usuarios. (Imagen ilustrativa Infobae)

El resultado fue contundente: los participantes mostraron una notable preferencia por las respuestas de IA, calificándolas como las más completas y dignas de confianza, a pesar de saber que uno de cada cuatro diagnósticos generados por estas herramientas es incorrecto.

Incluso ante la evidencia de errores frecuentes, muchos usuarios manifestaron estar dispuestos a seguir las recomendaciones generadas por la inteligencia artificial.

Dificultad para distinguir entre IA y médicos reales

El estudio también pone de relieve lo difícil que resulta para los usuarios —e incluso para los propios médicos— identificar cuándo un diagnóstico ha sido elaborado por una IA y cuándo por un especialista humano.

La presentación convincente de las respuestas generadas por modelos de lenguaje artificial hace que la diferencia sea, en la práctica, casi imperceptible. Esta dificultad para distinguir entre ambas fuentes incrementa el riesgo de que errores o invenciones pasen desapercibidos y sean tomados como válidos por los pacientes.

El estudio también pone de
El estudio también pone de relieve lo difícil que resulta para los usuarios identificar cuándo un diagnóstico ha sido elaborado por una IA. (Imagen ilustrativa Infobae)

Riesgos de confiar en la IA para la salud

La facilidad de acceso, la inmediatez de las respuestas y la apariencia de exhaustividad que ofrece la inteligencia artificial llevan a muchos usuarios a confiar en ella, incluso cuando se trata de cuestiones sensibles como la salud.

Sin embargo, los expertos advierten que esta confianza puede ser peligrosa, ya que la IA carece de la preparación clínica y el juicio profesional necesarios para tomar decisiones médicas acertadas. El propio estudio cita la frase de un especialista: “La inteligencia artificial está ejerciendo la medicina sin tener la preparación adecuada para ello”.

En un contexto donde gran parte del contenido digital ya es generado por IA, la fiabilidad de la información médica disponible en internet se vuelve más cuestionable que nunca. Los investigadores insisten en la necesidad de adoptar una actitud crítica y no dejar en manos de algoritmos decisiones que pueden afectar gravemente la salud de las personas.

 Investigadora IA. 
SOCIEDAD 
MICIU
Investigadora IA. SOCIEDAD MICIU

La IA dispara la cantidad de publicaciones científicas pero reduce su calidad

El avance de la inteligencia artificial (IA) en la investigación científica ha provocado un aumento significativo en la cantidad de artículos publicados, aunque este crecimiento se ha visto acompañado por una disminución en la calidad percibida de los mismos.

Un estudio realizado por la Universidad de Cornell revela que los investigadores que utilizan IA generan hasta un 50% más de publicaciones que sus colegas que no emplean estas herramientas, un fenómeno especialmente marcado en países donde el inglés no es el idioma principal.

No obstante, estos trabajos presentan una menor tasa de aceptación en revistas especializadas, lo que sugiere que su aporte o relevancia científica podría ser más limitado. Ante este panorama, los autores del estudio subrayan la necesidad de establecer nuevas regulaciones y estándares que acompañen el vertiginoso ritmo al que la IA está modificando el entorno académico.