La bioética ante la medicina algorítmica

La irrupción de la inteligencia artificial en la atención sanitaria promete eficiencia y precisión, pero plantea interrogantes sobre responsabilidad, transparencia y el vínculo personal entre médico y paciente frente a decisiones clínicas automatizadas

Guardar
Hombre con bata de hospital y pulsera sentado en una sala de espera, viendo una pantalla grande con gráficos digitales. Sobre una mesa hay documentos médicos.
(Imagen Ilustrativa Infobae)

Existen centros de salud donde el paciente ingresa, sus estudios son procesados por sistemas de IA que sugieren diagnósticos, clasifican riesgos, priorizan casos y orientan decisiones médicas. Todo parece más rápido, eficiente y objetivo. Pero la pregunta bioética decisiva no es sólo si el sistema produce una recomendación confiable, sino quién ve realmente al paciente, quién responde moralmente por la decisión y si el paciente comprende qué peso tuvo esa herramienta en su diagnóstico o tratamiento.

La paradoja es que nunca hubo tantos datos sobre el cuerpo humano, pero cada vez menos conocimiento sobre la persona concreta. La IA mide, predice y clasifica; convierte síntomas en patrones, imágenes en probabilidades e historias clínicas en perfiles de riesgo. Pero la bioética se funda cuando la técnica descubre su límite, para que el paciente deje de ser un conjunto de variables y vuelve a manifestarse como rostro, historia, vulnerabilidad y responsabilidad.

Para resolver este problema podemos acudir a Yehuda Halevi, filósofo y médico del siglo XI, quien distinguió en el Kuzarí entre el Dios pensado por los filósofos y el Dios vivido por Israel. El primero es alcanzado por la razón, la abstracción y la deducción metafísica. Es el primer motor inmóvil, causa primera y pensamiento que se piensa a sí mismo. Un Dios inteligiblemente perfecto, pero separado de la historia e indiferente al drama humano.

El Dios bíblico, en cambio, no es una conclusión conceptual, sino una presencia histórica en una relación viva, normativa y comunitaria. Es el Dios de Abraham, Isaac y Jacob, el Dios que pacta, libera de la esclavitud, revela la Torá y preceptúa una forma de vida. Halevi no niega la razón, sino su absolutización. Advierte que una verdad puramente pensada puede devenir insuficiente cuando se separa de la existencia vivida.

Análogamente se diferencia el paciente abstracto del paciente real. El primero es el sujeto de protocolos, formularios, estadísticas, modelos predictivos y categorías jurídicas. Es racional, autónomo, informado y capaz de decidir sin miedo, dolor, ignorancia técnica ni presiones familiares, económicas o institucionales. Pero ese paciente casi nunca existe. El paciente real, en contraste, está angustiado, enfermo, condicionado por el lenguaje médico, atravesado por su biografía, creencias, familia, fragilidad y desigual acceso a la información.

Así como Halevi sospechaba de un Dios reducido a una operación mental, la bioética debe sospechar de un paciente reducido a categoría funcional. Del mismo modo que el Dios del filósofo puede ser conceptualmente perfecto, pero no pacta, no escucha, no libera ni preceptúa, el paciente abstracto de cierta tecnocracia sanitaria puede ser útil para diseñar sistemas, pero no sufre, no teme, no pregunta, no espera ni muere.

La IA en salud vuelve esta cuestión más urgente. La OMS reconoció su potencial para la atención médica, la investigación y la salud pública, pero reclamó gobernanza ética, transparencia y control humano (Ethics and Governance of AI for Health, 2024). La FDA destacó su capacidad transformadora, aunque exige evaluar seguridad, eficacia y gestión de riesgos (AI-Enabled Device Software Functions, 2025). Similarmente The Hastings Center for Bioethics advirtió sobre privacidad, comprensión insuficiente del paciente, sesgos, seguridad, confianza y rendición de cuentas en la IA sanitaria (AI in Healthcare, 2026).

El problema no es de precisión técnica sino de mediación moral. La IA mejora diagnósticos, detecta patrones invisibles para el ojo humano, acelera procesos y asiste a médicos sobrecargados. Pero cuando la herramienta reemplaza el juicio responsable, allí nace la confusión bioética creyendo que calcular mejor es decidir mejor, que predecir es comprender, que clasificar es responder y que la precisión estadística sustituye la prudencia clínica. A mayor capacidad de calcular al paciente, más urgente se vuelve una bioética capaz de restituir su singularidad, su vulnerabilidad y la responsabilidad indelegable del acto clínico.

El algoritmo no ve un rostro, procesa variables. No escucha una biografía, reconoce patrones. No acompaña una angustia, estima riesgos. No asume culpa, licúa responsabilidades entre programadores, AI trainers, instituciones, fabricantes, médicos y sistemas regulatorios. Por ello, aunque pueda ser clínicamente valioso, nunca debe ser confundido con un sujeto moral.

El consentimiento informado muestra claramente este límite. Cuando intervienen sistemas algorítmicos opacos, puede volverse formalmente válido, pero materialmente débil. Qué significa consentir el uso de una herramienta que el propio médico no puede explicar por completo. Qué significa aceptar una recomendación basada en modelos entrenados con datos cuya composición, sesgos o márgenes de error se desconocen. Qué significa decidir libremente cuando el lenguaje técnico impide comprender el alcance real de la intervención.

Halevi ofrece una clave. La filosofía, buscando lo universal, infiere un Dios en general; la religión, en cambio, reconoce a Dios en lo particular de un pueblo, una lengua, una historia y una ley. Ninguna abstracción, por perfecta que sea, agota la densidad de una existencia concreta. Lo mismo ocurre con los principios de autonomía, beneficencia, no maleficencia y justicia, que concebidos como fórmulas abstractas pierden fuerza moral. Pero articulados y aplicados a la situación concreta del paciente real, recuperan su verdadero sentido. Por ejemplo, la autonomía no reducida a deseo ni a firma; la beneficencia no confundida con eficiencia; la justicia no limitada a distribución estadística; y la no maleficencia cuando no omite daños invisibles como pérdida de privacidad, opacidad decisional o erosión del vínculo médico-paciente.

Así como el judaísmo no es, para Halevi, una teoría sobre Dios ni se comprende desde la metafísica abstracta, sino como una relación histórica entre Dios e Israel, tampoco la medicina puede reducir al paciente a una teoría sobre su patología, riesgos, indicadores o datos. El Dios invocado, obedecido y vivido compromete una existencia de un modo que el Dios inteligible, necesario y universal no alcanza a producir. De manera semejante, la medicina algorítmica puede producir un paciente medible y clasificable, pero la bioética debe abogar por el paciente vivido, el que tiene nombre, miedo, familia, memoria, pudor, creencias, dolor y esperanza.

Aquí aparece la necesidad de la Ética del Límite, que incluye el principio conocido como human in the loop exigiendo que la IA asista, no reemplace; sugiera, no decida soberanamente; amplíe la capacidad médica, no diluya la responsabilidad profesional; acelere procesos, no vacíe el consentimiento; mejore el acceso, no convierta al paciente en campo experimental de sistemas insuficientemente explicados.

El límite ético no es enemigo de la técnica, sino la condición de su legitimidad evitando que devenga en poder desnudo. Sin responsabilidad, la eficiencia deviene excusa. Sin rostro concreto, el paciente se transforma en dato. Sin consentimiento real, la autonomía se vuelve ficción burocrática.

La bioética de nuestro tiempo debe relacionarse con la medicina como Halevi relacionó la religión con la filosofía. Halevi no negó la razón ni despreció el pensamiento abstracto, los ubicó en su lugar advirtiendo que cuando se absolutizan olvidan la vida. Por eso no preguntaba sólo qué puede demostrar la razón sobre Dios, sino dónde ocurrió la revelación, cuándo, ante quiénes y qué forma de vida exigía.

Esa advertencia vale hoy para la IA en salud. La bioética tampoco debe preguntar sólo qué puede hacer un algoritmo, sino quién decide, en qué situación de vulnerabilidad, con qué información disponible, bajo qué consentimiento real, asumiendo qué responsabilidad y sujeto a qué límites. No alcanza con el Dios pensado, hace falta el Dios vivido. No alcanza con el paciente calculado, hace falta el paciente concreto. No alcanza con una medicina algorítmica, necesitamos una medicina responsable.