
El 30 de abril de 2026, Anthropic publicó un estudio que pasó como noticia técnica y que, leído con atención, es otra cosa. La compañía analizó un millón de conversaciones con su chatbot Claude y encontró que el 6% no eran pedidos de código, ni de resúmenes, ni de información. Eran personas pidiendo consejo sobre qué hacer con su vida. Sobre unas 38.000 conversaciones de este tipo, el dominio número uno no fue carrera, ni dinero, ni relaciones. Fue salud, con el 27%.
Hasta acá, una curiosidad. El dato que vuelve la noticia incómoda está en una sola línea del paper, casi al pasar: parte de los usuarios le dijo a Claude que recurría a la inteligencia artificial “precisamente porque no podían acceder o pagar un profesional”. No es una hipótesis de los investigadores. Es lo que la gente escribió en el chat.
PUBLICIDAD
El sistema de salud ya tiene un sustituto y no lo aprobó nadie
La narrativa oficial sobre la inteligencia artificial generativa, la que repiten Sam Altman, Sundar Pichai y Dario Amodei en cada keynote, es productividad. Programadores que escriben código más rápido, abogados que revisan contratos en minutos, oficinistas que ganan dos horas al día. Esa historia tiene cifras y casos, y es real.
Lo que el paper de Anthropic muestra es la otra historia, la que no aparece en los earnings calls. Una porción del uso masivo de Claude pasa por algo más prosaico y más serio. La Figura 1 del paper desglosa los subtemas dentro de salud: interpretación de análisis clínicos, condiciones crónicas, lesiones, síntomas respiratorios, cálculo de calorías y macros para composición corporal. Y en el apartado sobre escenarios de alto riesgo, los investigadores listan cuatro ejemplos concretos: vías migratorias, instrucciones para cuidado de bebés, dosis de medicamentos y deudas de tarjeta de crédito.
PUBLICIDAD
La consulta médica de millones de personas, en el mundo desarrollado y en el que está en desarrollo, ya pasa por un chatbot. El paper de Anthropic lo documenta con datos propios.

La empresa lo escribió, y lo escribió en un paper de seguridad
Este es el detalle que cambia todo. La admisión no aparece en un comunicado de marketing. Aparece en un paper firmado por el equipo de seguridad de Anthropic, dedicado a estudiar cómo proteger el bienestar de los usuarios. Los autores lo plantean como una preocupación legítima: Claude no fue diseñado para dar consejos médicos, y en estos casos el modelo reconoce sus límites y recomienda consultar a un humano.
PUBLICIDAD
El problema, leído entre líneas, es que recomendar consulta humana no resuelve nada cuando el usuario respondió, en el mismo chat, que no llega a pagarla. El paper no narra esa secuencia conversacional. Documenta los dos hechos por separado, y deja la tensión abierta. Los investigadores anuncian que el próximo paso es construir evaluaciones específicas para estos dominios de alto riesgo, sobre todo para usuarios sin alternativa profesional. Es decir: identifican el problema, no lo resolvieron, y avisan que están trabajando en cómo medirlo.
Esto pone a Anthropic, y por extensión a OpenAI, a Google y a todos los laboratorios de frontera, en una posición que la regulación todavía no entendió. Son proveedores de consejo médico de facto, a escala de cientos de millones de personas, sin licencia clínica, sin responsabilidad civil, sin protocolo de derivación obligatorio. Y son los primeros en saberlo.
PUBLICIDAD

Lo que el dato cambia
La discusión pública sobre inteligencia artificial y salud sigue atada a dos imágenes: el médico de élite usando Claude para revisar literatura, o el riesgo lejano de un diagnóstico automatizado y equivocado. Las dos son ciertas, las dos son menores. La verdad operativa, la del millón de conversaciones, es otra: el chatbot ya es el primer punto de contacto del sistema de salud para una parte sustantiva de los usuarios.
Eso desplaza el debate. La pregunta no es si los chatbots deberían dar consejos médicos. Ya los están dando. La pregunta es bajo qué condiciones, con qué garantías de precisión, con qué obligación de derivar, con qué transparencia sobre los límites del modelo. Anthropic publicó el dato. Ahora le toca a la FDA, la agencia que aprueba medicamentos en Estados Unidos, a la Comisión Europea y a las autoridades sanitarias regionales decidir si lo van a tomar en serio o si van a seguir tratando a estas conversaciones como ruido.
PUBLICIDAD
El sistema de salud privado está pensado para el que puede pagar. El público para el que puede esperar. Hay millones de personas que no entran en ninguna de las dos categorías, y que hoy le preguntan a Claude. Anthropic acaba de documentarlo en un paper firmado. Es lo más cerca que va a estar la industria de pedir que la regulen.
PUBLICIDAD
PUBLICIDAD
Últimas Noticias
¿La gasolina podría bajar de precio? Trump propone suspender un impuesto federal
El presidente estadounidense dijo que tomará esta medida para ayudar a los ciudadanos a sobrellevar el aumento del precio del combustible por la guerra con Irán. Pero el Congreso será el encargado de analizar y votar la iniciativa

Nueva York transforma su infraestructura para recibir a más de un millón de visitantes durante el Mundial 2026
La intensa agenda de eventos requiere una amplia coordinación entre responsables del transporte, autoridades y empresas para mantener funcionando la infraestructura durante la celebración del torneo internacional en julio de 2026

El presidente Donald Trump viajará a China acompañado por Elon Musk, Tim Cook y otros ejecutivos de grandes empresas estadounidenses
La misión incluye representantes de sectores que van desde tecnologías digitales hasta agroindustrias, quienes buscarán definir mecanismos de cooperación bilateral entre Pekín y Washington

El nuevo control de firmas del USCIS cambiará el panorama migratorio en Estados Unidos a partir de julio de 2026
La entrada en vigor de la normativa obligará a quienes gestionen trámites para radicarse o trabajar a cumplir requisitos más estrictos, incrementando el riesgo de rechazos inesperados por detalles en la presentación de documentos

El Secretario de Transporte defendió su nuevo reality show con viajes familiares en conmemoración al 250 aniversario de EE.UU.
La decisión de Sean Duffy de protagonizar su propio programa, en medio de un contexto económico problemático, suscitó dudas sobre los límites entre actividades personales y responsabilidades institucionales




