
La expansión de la Inteligencia Artificial en medicina e investigación biomédica ha reabierto una cuestión que la bioética consideraba conceptualmente resuelta, ¿quién responde, jurídica y moralmente, cuando una decisión afecta la vida humana? A diferencia de los problemas clásicos, centrados en la intención del médico, el error clínico o el consentimiento del paciente, los conflictos actuales emergen de sistemas que, aún técnicamente efectivos, diluyen la responsabilidad en algoritmos.
El debate bioético contemporáneo carece todavía de criterios normativos capaces de distinguir con precisión entre asistencia tecnológica legítima y sustitución moral indebida. La apelación genérica a la supervisión humana, a la eficiencia clínica o a la reducción del error resulta insuficiente cuando el problema es la pérdida de agencia responsable. En ese vacío conceptual se inscribe la conocida teoría de la no delegación y la ética del límite, desarrollada en mis trabajos sobre bioética.
En este punto resulta necesario precisar que la ética del límite no constituye una extensión de los debates existentes sobre gobernanza algorítmica o responsabilidad distribuida, sino un marco normativo autónomo orientado a identificar umbrales éticos irreductibles donde las categorías tradicionales de consentimiento, eficiencia o supervisión humana resultan conceptualmente insuficientes. Su aporte específico no radica sólo en regular mejor la delegación, sino en establecer criterios para reconocer cuándo ciertas prácticas, aun sin delegación explícita, producen una pérdida ética que invalida su legitimidad bioética.
Diversos autores han advertido los riesgos éticos de transferir decisiones moralmente relevantes a sistemas automáticos. Joshua Kroll ha señalado los “vacíos de responsabilidad”; Luciano Floridi ha diferenciado entre delegación funcional y delegación de agencia moral; Onora O’Neill ha cuestionado la ilusión del consentimiento formal como sustituyente de la responsabilidad efectiva; y Roger Brownsword ha subrayado la necesidad de preservar un control humano significativo.
Así, el principio de no delegación sostiene que ciertas decisiones no pueden ser transferidas a sistemas automáticos sin una pérdida ética sustantiva, aun cuando prometan eficiencia o reducción del error. La responsabilidad frente a la vida humana exige juicio prudencial y deliberación contextual, siendo incompatible con automatizaciones que sustituyen el discernimiento humano, diluyen la identificación de un responsable y opacan los criterios de decisión. La pregunta central es clara: ¿quién debe conservar la responsabilidad decisoria cuando una tecnología interviene en ámbitos vitales? Estas valiosas contribuciones, sin embargo, no establecen por sí mismas criterios normativos claros para determinar cuándo una delegación o incluso asistencia tecnológica resulta éticamente inadmisible.
La ética del límite introduce una pregunta previa que no puede resolverse por medios procedimentales, ¿existen prácticas que deben ser excluidas aun cuando cumplan con todos los requisitos formales de control e incluso no haya delegación?
En este sentido, la ética del límite no constituye una mera extensión de los debates sobre gobernanza algorítmica o responsabilidad distribuida, sino un marco normativo autónomo. Mientras la teoría de la no delegación identifica quién debe responder, la ética del límite permite reconocer umbrales éticos irreversibles cuya transgresión produce una pérdida de dignidad humana que no puede ser compensada por eficiencia, consentimiento ni corrección técnica. Su función es orientar la regulación de los procedimientos a partir del reconocimiento de límites que no deben ser cruzados, aun cuando una práctica funcione correctamente desde el punto de vista técnico o legal.
Este criterio se vuelve visible en debates bioéticos contemporáneos como la manipulación genética, donde la modificación de embriones humanos con fines eugenésicos cruza un umbral ético aun cumpliendo todos los procedimientos y supervisión científica. Allí no hay un problema de delegación decisoria, sino una transformación de la vida humana en objeto de diseño. Algo similar ocurre en la investigación con quimeras, aun bajo protocolos formales, cuando se desdibujan las fronteras ontológicas destinadas a proteger la singularidad de lo humano mediante la edición genética o la incorporación de células humanas en estructuras neurológicas o reproductivas animales. Ello puede generar repercusiones en rasgos conductuales, en funciones neurocognitivas superiores como la cognición compleja y el lenguaje, o incluso en la determinación del tipo de ser generado. En estos casos, no se trata sólo de quién decide, sino de reconocer que ciertas extralimitaciones producen una pérdida ética irreductible, no subsanable por reversión técnica ni por validación procedimental.
La misma lógica se aplica al uso de IA en salud. Un sistema de asistencia para diagnóstico por imágenes respeta el principio de no delegación si el profesional conserva la decisión final. Pero cuando el sistema, el volumen de casos o la presión institucional convierten esa asistencia en una dependencia estructural, el juicio humano se vuelve meramente confirmatorio. Allí no hay sólo un problema de responsabilidad formal, sino uno ético más profundo, la transformación del profesional en ejecutor técnico y la erosión de su agencia moral.
Algo similar ocurre en la investigación biomédica. La supervisión formal de algoritmos que define criterios de inclusión o interrupción temprana de tratamientos puede satisfacer la exigencia de no delegación. Pero cuando esos criterios se vuelven opacos, no explicables o no revisables, la ética del límite permite identificar una erosión de la responsabilidad aun en ausencia de delegación explícita.
Este mismo criterio resulta decisivo para evaluar tratamientos médicos que, aunque eficaces para controlar síntomas, producen una pérdida sustantiva de dignidad humana. En ciertos tratamientos farmacológicos o ensayos con ciberimplantes en pacientes con demencias avanzadas o trastornos neuropsiquiátricos severos, la reducción de conductas disruptivas o del deterioro cognitivo se logra al costo de suprimir casi por completo la conciencia, la comunicación, la autonomía personal y el yo social. Aquí, no todo control sintomático es éticamente aceptable cuando cosifica al paciente y anula su individuación y agencia.
Lejos de ser una construcción abstracta, la teoría de la no delegación y la ética del límite encuentran confirmación empírica en conflictos recientes. El caso NH Predict en Estados Unidos, algoritmo automatizado de naviHealth, subsidiaria de UnitedHealth/Optum, utilizado en planes Medicare Advantage para evaluar coberturas de cuidados postagudos, generó demandas colectivas por denegaciones automatizadas. Las altas tasas de revocación en las apelaciones evidenciaron el daño producido por la delegación indebida y por la transgresión de un umbral ético fundamental. Allí, más allá del error estadístico o de la opacidad del modelo, se cruzó el límite que transforma decisiones de cuidado individual en actos de gestión poblacional automatizada, anulando la singularidad moral del paciente y degradando el consentimiento informado a un formalismo procedimental.
Sería, sin embargo, un error desconocer los beneficios concretos de la IA en medicina. Sistemas de apoyo al diagnóstico y de gestión clínica han demostrado mejoras en tiempos y precisión. Pero estos avances, leídos desde una ética del límite, exigen distinguir entre tecnologías que asisten al juicio humano y aquellas que lo erosionan de manera estructural e irreversible.
Por ello, resulta necesario traducir la convergencia entre la teoría de la no delegación y la ética del límite en un marco normativo mínimo: A) Prohibir la automatización decisoria plena cuando esté en juego la vida o la dignidad humana; B) Exigir supervisión humana significativa y trazabilidad real; C) Establecer evaluaciones bioéticas orientadas a identificar umbrales éticos que no deben ser cruzados; D) Capacitar profesionales y decisores públicos.
El avance de la IA en salud exige algo más que eficiencia, exige reconocer límites éticos que no pueden ser delegados y otros que no pueden ser cruzados. Porque donde está en juego la vida o la dignidad, debe haber responsabilidad humana y límites irreductibles. Allí está la diferencia entre falla técnica y renuncia ética.
Últimas Noticias
Zeitgeist 2026: orden, poder y realismo en Occidente
El Departamento de Estado estadounidense dejó en claro que la seguridad hemisférica vuelve a ocupar un lugar central en la agenda de poder
Groenlandia: del frío polar al calor trumpista
La nueva competencia global por el Ártico convierte a este país de tan sólo 57 mil habitantes en un punto central de la disputa entre Estados Unidos, China y Rusia

Venezuela, Irán y los primeros síntomas de la Guerra Fría 2.0
La captura de Maduro y la represión en Teherán no son anomalías, sino señales de una etapa en la que el poder vuelve a ejercerse sin disfraces y donde las transiciones ya no garantizan estabilidad, sino nuevos equilibrios precarios
Irán: diversidad étnica, religiosa, cultural y geoestratégica
Los lazos externos de las distintas facciones dentro del país refuerzan la volatilidad en zonas limítrofes y en enclaves estratégicos
Apertura de la economía: balance y los desafíos por delante
Las recientes reformas impulsadas desde el Ejecutivo han marcado un cambio de paradigma en la política comercial argentina, planteando nuevas oportunidades y retos en la búsqueda de mayor dinamismo productivo




