
Un estudio de la Universidad de Oxford publicado en la revista ‘Nature Medicine’ advierte que la inteligencia artificial, incluyendo sistemas como ChatGPT, puede generar riesgos al sustituir el consejo médico profesional. El informe subraya que estos sistemas no están preparados para reemplazar la labor de un médico en la atención de consultas de salud.
La investigación, dirigida por el Oxford Internet Institute y el Departamento Nuffield de Ciencias de la Salud de Atención Primaria de la mencionada universidad, analizó el uso de modelos lingüísticos de inteligencia artificial (LLM) para resolver escenarios médicos.
El trabajo fue realizado junto a MLCommons y otras instituciones internacionales. Los expertos detectaron una importante brecha entre el rendimiento que muestran los sistemas de IA en exámenes estandarizados y su efectividad cuando los utilizan personas para resolver dudas de salud.

El ensayo involucró a casi 1.300 médicos que recibieron una serie de casos clínicos simulados, desde dolores de cabeza intensos tras una noche de fiesta hasta síntomas persistentes de agotamiento en madres primerizas. Un grupo consultó una IA para decidir cómo actuar ante los síntomas, mientras el otro recurrió a búsquedas en línea o a su propio juicio clínico.
Los resultados mostraron que los usuarios que confiaron en modelos como ChatGPT no tomaron mejores decisiones que quienes usaron métodos tradicionales.
Diagnósticos erróneos y falta de reconocimiento de urgencias
El informe indica que los sistemas de inteligencia artificial pueden fallar al ofrecer un diagnóstico adecuado y no logran identificar cuándo un caso requiere atención urgente. La doctora Rebecca Payne, médica de cabecera y líder del estudio en el Departamento Nuffield, señaló que la IA aún no está lista para asumir el rol del médico.
Los pacientes deben ser conscientes de que preguntar a un modelo de lenguaje extenso sobre sus síntomas puede ser peligroso, ya que puede dar diagnósticos erróneos y no reconocer cuándo se necesita ayuda urgente.

Los investigadores identificaron que el método actual de evaluación de estos sistemas, basado en pruebas de referencia sin interacción con usuarios reales, no refleja la complejidad de la comunicación humana. Por ejemplo, muchos participantes del estudio no sabían qué información necesitaban proporcionar al modelo para recibir una respuesta precisa. Esto llevó a que la inteligencia artificial emitiera recomendaciones mixtas, dificultando la elección de la mejor alternativa.
El autor principal, Andrew Bean, estudiante de doctorado en el Oxford Internet Institute, subrayó la necesidad de ensayos más robustos. Diseñar pruebas robustas para modelos lingüísticos extensos es fundamental para comprender cómo se puede aprovechar esta nueva tecnología. El estudio demostró que interactuar con humanos supone un desafío incluso para los modelos más avanzados.
El desafío de evaluar la inteligencia artificial en salud
El estudio de Oxford concluye que se requiere un enfoque más riguroso para evaluar los sistemas de inteligencia artificial en medicina. Adam Mahdi, profesor asociado del Oxford Internet Institute y coautor principal, planteó que los métodos de validación actuales no son suficientes para determinar la seguridad de estos sistemas en situaciones reales.

No se puede basar únicamente en pruebas estandarizadas para determinar si estos sistemas son seguros para el uso público. Al igual que se exigen ensayos clínicos para nuevos medicamentos, los sistemas de IA necesitan pruebas rigurosas con usuarios reales y diversos para comprender sus verdaderas capacidades en entornos de alto riesgo como la atención médica.
El trabajo resalta que el uso de inteligencia artificial para buscar ayuda médica puede implicar riesgos importantes si los sistemas no han sido validados en el mundo real. El equipo de Oxford sugiere que, mientras se desarrollan mejores métodos de evaluación, los pacientes deben mantener la consulta médica tradicional como la vía principal para resolver dudas de salud.
Últimas Noticias
Elon Musk pierde a otro cofundador de xAI y se compromete a reconstruir la startup de inteligencia artificial
Tras la salida de nueve altos directivos y un reconocido retraso frente a competidores como OpenAI, la empresa de Musk inicia una completa reestructuración
Spotify lanza la función Perfil de Gustos: usa IA para ajustar tus recomendaciones
Por primera vez, los suscriptores pueden revisar y modificar directamente lo que el sistema prioriza en la app

WhatsApp prepararía cambio clave para Meta AI: una pestaña propia
Con la integración de la inteligencia artificial de Meta en una pestaña dedicada, los usuarios podrían gestionar consultas, generar contenido y personalizar el asistente sin complicaciones

Cómo usar el nuevo modo 3D de Google Maps para que nunca te pierdas
Gracias a la representación gráfica avanzada y las instrucciones de voz contextuales, los usuarios pueden distinguir fácilmente estructuras urbanas y tomar decisiones rápidas

Robot humanoide es intervenido por asustar a una mujer de 70 años en la calle
Este incidente viral, en el que la autoridad se vio obligada a intervenir, resalta la necesidad establecer protocolos y campañas educativas sobre estos dispositivos




