El 30 de abril de 2026, Anthropic publicó un estudio que pasó como noticia técnica y que, leído con atención, es otra cosa. La compañía analizó un millón de conversaciones con su chatbot Claude y encontró que el 6% no eran pedidos de código, ni de resúmenes, ni de información. Eran personas pidiendo consejo sobre qué hacer con su vida. Sobre unas 38.000 conversaciones de este tipo, el dominio número uno no fue carrera, ni dinero, ni relaciones. Fue salud, con el 27%.
Hasta acá, una curiosidad. El dato que vuelve la noticia incómoda está en una sola línea del paper, casi al pasar: parte de los usuarios le dijo a Claude que recurría a la inteligencia artificial “precisamente porque no podían acceder o pagar un profesional”. No es una hipótesis de los investigadores. Es lo que la gente escribió en el chat.
El sistema de salud ya tiene un sustituto y no lo aprobó nadie
La narrativa oficial sobre la inteligencia artificial generativa, la que repiten Sam Altman, Sundar Pichai y Dario Amodei en cada keynote, es productividad. Programadores que escriben código más rápido, abogados que revisan contratos en minutos, oficinistas que ganan dos horas al día. Esa historia tiene cifras y casos, y es real.
PUBLICIDAD
Lo que el paper de Anthropic muestra es la otra historia, la que no aparece en los earnings calls. Una porción del uso masivo de Claude pasa por algo más prosaico y más serio. La Figura 1 del paper desglosa los subtemas dentro de salud: interpretación de análisis clínicos, condiciones crónicas, lesiones, síntomas respiratorios, cálculo de calorías y macros para composición corporal. Y en el apartado sobre escenarios de alto riesgo, los investigadores listan cuatro ejemplos concretos: vías migratorias, instrucciones para cuidado de bebés, dosis de medicamentos y deudas de tarjeta de crédito.
La consulta médica de millones de personas, en el mundo desarrollado y en el que está en desarrollo, ya pasa por un chatbot. El paper de Anthropic lo documenta con datos propios.
La empresa lo escribió, y lo escribió en un paper de seguridad
Este es el detalle que cambia todo. La admisión no aparece en un comunicado de marketing. Aparece en un paper firmado por el equipo de seguridad de Anthropic, dedicado a estudiar cómo proteger el bienestar de los usuarios. Los autores lo plantean como una preocupación legítima: Claude no fue diseñado para dar consejos médicos, y en estos casos el modelo reconoce sus límites y recomienda consultar a un humano.
PUBLICIDAD
El problema, leído entre líneas, es que recomendar consulta humana no resuelve nada cuando el usuario respondió, en el mismo chat, que no llega a pagarla. El paper no narra esa secuencia conversacional. Documenta los dos hechos por separado, y deja la tensión abierta. Los investigadores anuncian que el próximo paso es construir evaluaciones específicas para estos dominios de alto riesgo, sobre todo para usuarios sin alternativa profesional. Es decir: identifican el problema, no lo resolvieron, y avisan que están trabajando en cómo medirlo.
Esto pone a Anthropic, y por extensión a OpenAI, a Google y a todos los laboratorios de frontera, en una posición que la regulación todavía no entendió. Son proveedores de consejo médico de facto, a escala de cientos de millones de personas, sin licencia clínica, sin responsabilidad civil, sin protocolo de derivación obligatorio. Y son los primeros en saberlo.
Lo que el dato cambia
La discusión pública sobre inteligencia artificial y salud sigue atada a dos imágenes: el médico de élite usando Claude para revisar literatura, o el riesgo lejano de un diagnóstico automatizado y equivocado. Las dos son ciertas, las dos son menores. La verdad operativa, la del millón de conversaciones, es otra: el chatbot ya es el primer punto de contacto del sistema de salud para una parte sustantiva de los usuarios.
PUBLICIDAD
Eso desplaza el debate. La pregunta no es si los chatbots deberían dar consejos médicos. Ya los están dando. La pregunta es bajo qué condiciones, con qué garantías de precisión, con qué obligación de derivar, con qué transparencia sobre los límites del modelo. Anthropic publicó el dato. Ahora le toca a la FDA, la agencia que aprueba medicamentos en Estados Unidos, a la Comisión Europea y a las autoridades sanitarias regionales decidir si lo van a tomar en serio o si van a seguir tratando a estas conversaciones como ruido.
El sistema de salud privado está pensado para el que puede pagar. El público para el que puede esperar. Hay millones de personas que no entran en ninguna de las dos categorías, y que hoy le preguntan a Claude. Anthropic acaba de documentarlo en un paper firmado. Es lo más cerca que va a estar la industria de pedir que la regulen.