Google toma medidas ante resúmenes con IA erróneos en los resultados de búsqueda sobre consejos médicos

La compañía retiró algunos resúmenes generados por inteligencia artificial en sus resultados de búsqueda sobre salud

Guardar
Google retiró resúmenes generados por
Google retiró resúmenes generados por IA en consultas de salud por difundir datos médicos erróneos. (Reuters)

Google ha eliminado algunos de sus resúmenes generados por inteligencia artificial de las búsquedas relacionadas con salud tras detectar que estos podían ofrecer información engañosa y poner en riesgo a los usuarios.

Estas medidas se produjeron después de una investigación de The Guardian que expuso casos en los que los llamados ‘AI Overviews’, los fragmentos de texto generados por IA y mostrados al inicio de los resultados, contenían datos incorrectos sobre consejos médicos, exámenes y síntomas de enfermedades.

Entre los ejemplos más preocupantes identificados, los resúmenes de Google recomendaron evitar alimentos ricos en grasa a personas con cáncer de páncreas, una indicación contraria a las directrices médicas habituales.

La decisión se tomó luego
La decisión se tomó luego de que una investigación revelara riesgos asociados a consejos inexactos en los AI Overviews. (Europa Press)

Anna Jewell, directora de soporte y de investigación de Pancreatic Cancer UK, señaló al medio británico que esta indicación “podría ser realmente peligrosa y poner en riesgo la posibilidad de que un paciente esté en condiciones de recibir tratamiento”. Además, si una persona sigue ese consejo, podría dejar de consumir las calorías necesarias para someterse a intervenciones como quimioterapia o cirugías.

Otro caso grave involucró información ofrecida sobre pruebas de función hepática. Los resúmenes de inteligencia artificial entregaban valores de referencia para exámenes de hígado sin aclarar que estos varían según nacionalidad, sexo, etnia y edad. Pamela Healy, directora ejecutiva de la British Liver Trust, advirtió que este tipo de respuestas puede provocar que personas con enfermedades graves piensen que sus resultados son normales y no acudan a controles médicos.

Los errores también alcanzaron las búsquedas sobre pruebas y síntomas de cáncer ginecológico. Al consultar por exámenes para el cáncer vaginal, la IA de Google listó el Papanicolaou como método diagnóstico, aunque ese estudio no detecta ese tipo de cáncer. Athena Lamnisos, directora de la Eve Appeal, subrayó que recibir información incorrecta puede llevar a que mujeres no consulten por síntomas porque creen estar protegidas por una prueba de otro tipo.

Entre los errores detectados, la
Entre los errores detectados, la IA de Google recomendó prácticas contrarias a directrices médicas para pacientes con cáncer. (Reuters)

Según el reporte, los resúmenes de Google presentaron además problemas en consultas sobre salud mental. Para enfermedades como la psicosis o los trastornos alimentarios, las respuestas ofrecieron consejos erróneos, peligrosos o que podían desalentar la búsqueda de ayuda profesional. Stephen Buckley, responsable de información de Mind, remarcó que los resúmenes omitieron contexto relevante, sugirieron fuentes inapropiadas y a veces reforzaron estereotipos o narrativas estigmatizantes.

Reacción de Google y desafíos por abordar en los resultados de búsqueda

Frente a estos hallazgos, Google retiró los AI Overviews para varias búsquedas problemáticas, en particular las que incluían consultas sobre valores normales en pruebas de función hepática.

La empresa comunicó que revisa de forma continua la calidad de estos resúmenes, y que cuenta con un equipo de clínicos para evaluar los casos reportados. Un portavoz aseguró que la mayoría de los resúmenes de IA ofrecen información precisa y que la compañía invierte en mejorar la calidad de estos fragmentos, sobre todo en temas de salud.

Google aseguró que revisa la
Google aseguró que revisa la calidad de sus fragmentos de IA y trabaja para mejorar la precisión en resultados médicos. (Reuters)

No obstante, organizaciones especializadas consideran que la solución adoptada solo responde a casos puntuales y no resuelve el fondo del problema. Vanessa Hebditch, directora de comunicaciones y políticas en la British Liver Trust, celebró la eliminación de los resúmenes dañinos, aunque expresó preocupación porque la medida solo aborda búsquedas específicas y no el funcionamiento general de los AI Overviews en temas de salud.

La investigación sobre los resúmenes de inteligencia artificial en las búsquedas de Google reveló que la información generada puede variar entre consultas idénticas hechas en distintos momentos, ya que los fragmentos se nutren de diferentes fuentes en cada ocasión. Esta variabilidad preocupa a entidades médicas y asociaciones de pacientes, que ven un riesgo en la falta de consistencia de la información médica entregada por la IA.