Google ha eliminado algunos de sus resúmenes generados por inteligencia artificial de las búsquedas relacionadas con salud tras detectar que estos podían ofrecer información engañosa y poner en riesgo a los usuarios.
Estas medidas se produjeron después de una investigación de The Guardian que expuso casos en los que los llamados ‘AI Overviews’, los fragmentos de texto generados por IA y mostrados al inicio de los resultados, contenían datos incorrectos sobre consejos médicos, exámenes y síntomas de enfermedades.
Entre los ejemplos más preocupantes identificados, los resúmenes de Google recomendaron evitar alimentos ricos en grasa a personas con cáncer de páncreas, una indicación contraria a las directrices médicas habituales.

Anna Jewell, directora de soporte y de investigación de Pancreatic Cancer UK, señaló al medio británico que esta indicación “podría ser realmente peligrosa y poner en riesgo la posibilidad de que un paciente esté en condiciones de recibir tratamiento”. Además, si una persona sigue ese consejo, podría dejar de consumir las calorías necesarias para someterse a intervenciones como quimioterapia o cirugías.
Otro caso grave involucró información ofrecida sobre pruebas de función hepática. Los resúmenes de inteligencia artificial entregaban valores de referencia para exámenes de hígado sin aclarar que estos varían según nacionalidad, sexo, etnia y edad. Pamela Healy, directora ejecutiva de la British Liver Trust, advirtió que este tipo de respuestas puede provocar que personas con enfermedades graves piensen que sus resultados son normales y no acudan a controles médicos.
Los errores también alcanzaron las búsquedas sobre pruebas y síntomas de cáncer ginecológico. Al consultar por exámenes para el cáncer vaginal, la IA de Google listó el Papanicolaou como método diagnóstico, aunque ese estudio no detecta ese tipo de cáncer. Athena Lamnisos, directora de la Eve Appeal, subrayó que recibir información incorrecta puede llevar a que mujeres no consulten por síntomas porque creen estar protegidas por una prueba de otro tipo.
Según el reporte, los resúmenes de Google presentaron además problemas en consultas sobre salud mental. Para enfermedades como la psicosis o los trastornos alimentarios, las respuestas ofrecieron consejos erróneos, peligrosos o que podían desalentar la búsqueda de ayuda profesional. Stephen Buckley, responsable de información de Mind, remarcó que los resúmenes omitieron contexto relevante, sugirieron fuentes inapropiadas y a veces reforzaron estereotipos o narrativas estigmatizantes.
Reacción de Google y desafíos por abordar en los resultados de búsqueda
Frente a estos hallazgos, Google retiró los AI Overviews para varias búsquedas problemáticas, en particular las que incluían consultas sobre valores normales en pruebas de función hepática.
La empresa comunicó que revisa de forma continua la calidad de estos resúmenes, y que cuenta con un equipo de clínicos para evaluar los casos reportados. Un portavoz aseguró que la mayoría de los resúmenes de IA ofrecen información precisa y que la compañía invierte en mejorar la calidad de estos fragmentos, sobre todo en temas de salud.
No obstante, organizaciones especializadas consideran que la solución adoptada solo responde a casos puntuales y no resuelve el fondo del problema. Vanessa Hebditch, directora de comunicaciones y políticas en la British Liver Trust, celebró la eliminación de los resúmenes dañinos, aunque expresó preocupación porque la medida solo aborda búsquedas específicas y no el funcionamiento general de los AI Overviews en temas de salud.
La investigación sobre los resúmenes de inteligencia artificial en las búsquedas de Google reveló que la información generada puede variar entre consultas idénticas hechas en distintos momentos, ya que los fragmentos se nutren de diferentes fuentes en cada ocasión. Esta variabilidad preocupa a entidades médicas y asociaciones de pacientes, que ven un riesgo en la falta de consistencia de la información médica entregada por la IA.
Últimas Noticias
Anthropic presenta su propia herramienta de IA para consultas sobre salud
Se trata de Claude for Healthcare, orientada a responder consultas sobre salud y facilitar la gestión de información médica

Reino Unido investiga a X por deepfakes creados con la IA Grok
La intervención de Ofcom surge a raíz de informes sobre el uso del chatbot de inteligencia artificial de X para generar y difundir imágenes no autorizadas de desnudos

Brasil investiga a Meta por prácticas anticompetitivas y ordena la suspensión de los términos de uso de WhatsApp Business
El foco de la pesquisa se centra en los cambios contractuales introducidos por Meta en octubre de 2025, los cuales, según las denuncias, restringen el acceso de desarrolladores a la infraestructura de la app

Esta es la aplicación de Microsoft que está a punto de ser retirada de Android y iOS
A pesar de esta medida, los usuarios tendrán una alternativa más eficiente para escanear sus documentos y guardarlos en la nube

Esta es la marca que se posiciona como líder mundial de smartphones en 2025
La compañía destaca como la principal referencia global en el sector de celulares, superando a competidores como Samsung y Xiaomi


