
Uno de cada cuatro diagnósticos médicos generados por IA es inventado, pero esto no parece disuadir a los usuarios, quienes siguen confiando en este tipo de herramientas incluso para temas de salud. Pese a las advertencias de numerosos profesionales de la medicina, la popularidad de plataformas como ChatGPT para consultas médicas sigue creciendo, reflejando una tendencia preocupante en la relación entre tecnología y confianza pública.
Diagnósticos médicos por IA: confianza a pesar del error
Según un estudio reciente realizado por investigadores del MIT y publicado en The New England Journal of Medicine, las personas tienden a calificar las respuestas médicas generadas por inteligencia artificial como más fiables y completas que las ofrecidas por médicos reales o plataformas digitales especializadas.
La investigación incluyó a trescientas personas con y sin conocimientos médicos, quienes evaluaron tres tipos de respuestas ante consultas clínicas: una de un profesional de la salud, otra de una plataforma digital y una tercera de un sistema de IA.

El resultado fue contundente: los participantes mostraron una notable preferencia por las respuestas de IA, calificándolas como las más completas y dignas de confianza, a pesar de saber que uno de cada cuatro diagnósticos generados por estas herramientas es incorrecto.
Incluso ante la evidencia de errores frecuentes, muchos usuarios manifestaron estar dispuestos a seguir las recomendaciones generadas por la inteligencia artificial.
Dificultad para distinguir entre IA y médicos reales
El estudio también pone de relieve lo difícil que resulta para los usuarios —e incluso para los propios médicos— identificar cuándo un diagnóstico ha sido elaborado por una IA y cuándo por un especialista humano.
La presentación convincente de las respuestas generadas por modelos de lenguaje artificial hace que la diferencia sea, en la práctica, casi imperceptible. Esta dificultad para distinguir entre ambas fuentes incrementa el riesgo de que errores o invenciones pasen desapercibidos y sean tomados como válidos por los pacientes.

Riesgos de confiar en la IA para la salud
La facilidad de acceso, la inmediatez de las respuestas y la apariencia de exhaustividad que ofrece la inteligencia artificial llevan a muchos usuarios a confiar en ella, incluso cuando se trata de cuestiones sensibles como la salud.
Sin embargo, los expertos advierten que esta confianza puede ser peligrosa, ya que la IA carece de la preparación clínica y el juicio profesional necesarios para tomar decisiones médicas acertadas. El propio estudio cita la frase de un especialista: “La inteligencia artificial está ejerciendo la medicina sin tener la preparación adecuada para ello”.
En un contexto donde gran parte del contenido digital ya es generado por IA, la fiabilidad de la información médica disponible en internet se vuelve más cuestionable que nunca. Los investigadores insisten en la necesidad de adoptar una actitud crítica y no dejar en manos de algoritmos decisiones que pueden afectar gravemente la salud de las personas.

La IA dispara la cantidad de publicaciones científicas pero reduce su calidad
El avance de la inteligencia artificial (IA) en la investigación científica ha provocado un aumento significativo en la cantidad de artículos publicados, aunque este crecimiento se ha visto acompañado por una disminución en la calidad percibida de los mismos.
Un estudio realizado por la Universidad de Cornell revela que los investigadores que utilizan IA generan hasta un 50% más de publicaciones que sus colegas que no emplean estas herramientas, un fenómeno especialmente marcado en países donde el inglés no es el idioma principal.
No obstante, estos trabajos presentan una menor tasa de aceptación en revistas especializadas, lo que sugiere que su aporte o relevancia científica podría ser más limitado. Ante este panorama, los autores del estudio subrayan la necesidad de establecer nuevas regulaciones y estándares que acompañen el vertiginoso ritmo al que la IA está modificando el entorno académico.
Últimas Noticias
Aprende a crear tu propia aplicación usando la ayuda de Gemini, la IA de Google
Esta herramienta permite a cualquier usuario, sin experiencia en desarrollo, tener una plataforma funcional y publicarla

CEO de Anthropic advierte que los riesgos de la IA están más cerca de lo esperado: “Despierten”
Dario Amodei advirtió que la humanidad enfrenta una fase crítica con la llegada de inteligencia artificial avanzada
Así se puede convertir tu smartphone en un detector de radiación nuclear
Esto es posible gracias a un dispositivo recientemente desarrollado por científicos japoneses

Cómo afecta la IA los ingresos y rentabilidad de las empresas que adoptan esta tecnología
El 15% de las empresas logra transformar la inteligencia artificial en crecimiento y rentabilidad sostenida

En solo 15 días, la IA detectó a 590 conductores que no usan cinturón de seguridad
Esta fue una de las primeras pruebas que demostró cómo la inteligencia artificial puede ayudar a las autoridades en tareas de seguridad vial




