Fishel Szlajen, el especialista y director de AMIA Cultura, participó del cónclave cuyo tema fue la inteligencia artificial, ética, ley y salud.
Fishel Szlajen, el especialista y director de AMIA Cultura, participó del cónclave cuyo tema fue la inteligencia artificial, ética, ley y salud.

La 26° Asamblea de la Pontificia Academia para la Vida (PAV), encabezada por el Papa Francisco en la ciudad del Vaticano, finalizó con un histórico llamamiento y la firma de un compromiso ético para “humanizar la inteligencia artificial”. El acuerdo fue sellado por el miembro titular de la academia global, el doctor en Filosofía Fishel Szlajen, junto al presidente de Microsof, Brad Smith, el vicepresidente de IBM, John Kelly III, el titular del Parlamento Europeo David Sassoli, el director de Oficina de la ONU para la Alimentación y Agricultura, Qu Dongyo y Monseñor Vincenzo Paglia.

Szlajen fue el primer rabino nombrado miembro titular de la PAV, que nuclea setenta de los más destacados académicos interdisciplinarios en bioética de todo el mundo. El especialista y director de AMIA Cultura participó del mencionado cónclave, cuyo tema fue la inteligencia artificial, ética, ley y salud, y deslizó algunas claves sobre el alcance del histórico debate auspiciado por el Papa Francisco:

— ¿A qué se llama Inteligencia Artificial (IA)?

— Si bien no hay unanimidad en la definición conceptual de IA, existe una descriptiva basada en el uso de tecnología automatizando labores que realizadas por humanos, requieren inteligencia. La diferencia con la mera automación es la funcionalidad no necesariamente repetitiva de una misma tarea, sino incluyente de algoritmos pudiendo establecer patrones. Luego, si bien los automatismos no son un desarrollo tecnológico nuevo, si lo son las cuestiones éticas y dilemas ante la aplicación de los programas que constituyen la denominada IA.

— Que disciplinas estuvieron representadas y cuáles son sus reflexiones sobre los tópicos más relevantes abordados?

— Participaron más 500 invitados internacionales en diversos workshops, cuya sesión final mencionada supra, fue presenciada por más de 1300 académicos y profesionales de casi todas las disciplinas en las que la IA está incursionando. En este sentido, antropólogos, biólogos, fuerzas de seguridad, economistas, empresarios, filósofos, ingenieros, juristas, legisladores, médicos, políticos, sociólogos y tecnólogos, fueron los partícipes de esta asamblea, cuyas conclusiones sirven de guía hacia la conformación de políticas públicas. Sin entrar en tecnicismos, los tópicos más importantes estuvieron relacionados con el impacto de la IA en lo socio-laboral, su influencia en las conductas, su aplicación en los ámbitos de la justicia y la medicina más otras áreas donde ya se visualiza que, la falta de su regulación provoca graves consecuencias en lugar de mejorar el cumplimiento de los valores rectores de cada una de las áreas en cuestión.

— ¿Puede resumir algunos de estos puntos?

  • Están los clásicos de fake news o la invasión a la privacidad usufructuando sin autorización datos personales recolectados desde internet. También el rastreo telefónico y reconocimiento facial y de voz, muy útil al perder el dispositivo o para activarlo de forma segura así como para la ubicación de profugados, pero no para víctimas que buscan privacidad y menos cuando es usado por gobiernos para localizar y controlar minorías.
  • En relación a la seguridad laboral y social, la preocupación radica en el rápido reemplazo de mano de obra por algoritmos y robótica e incluso desapareciendo oficios. Y aunque durante la 1° revolución industrial el principal problema no fue la reconversión laboral ni su costo, sino la interrupción productiva en pos de capacitación, habrá que atender prioritariamente a no aumentar el desempleo, la pobreza y exclusión en una era de vertiginosos avances tecnológicos pero desprovista de la misma velocidad para generar programas de reconversión laboral.
  • Por otro lado y respecto de lo conductivo, existen apps de vínculos diseñadas intencionalmente para causar conductas adictivas, tal como algunas redes sociales cuyos algoritmos promueven recompensas aleatorias y coincidencias aun con baja compatibilidad para participar más tiempo en una sesión.
  • En otra dimensión, algunas compañías de recursos humanos han encontrado problemas de sesgo debido a que sus programas de selección, deliberadamente o no, pero siempre en base a datos históricos, presentaban como resultados, por ejemplo, mayoría de candidatos masculinos o de alguna etnia o grupo social particular.
  • Importantes departamentos de policía, desde el 2106, usan softwares basados en prontuarios y experiencias de campo para encontrar patrones de conducta, cuyas variables peligrosamente incluyen género, etnia, religión y clase social, conectándolas con delitos similares, prediciendo probables crímenes o violaciones de libertades condicionales.
  • En el ámbito legal, la IA puede potenciar pero también socavar principios fundamentales como la igualdad ante la ley y acceso a la justicia, fallos basados en pruebas, capacidad de apelación, sujeción al debido proceso y eficiencia administrativa. La IA puede detectar y hacer visible ciertas arbitrariedades para disminuirlas o bien anular espacios para conductas corruptas, objetivar el análisis de pruebas y dar mayor celeridad procesal y acceso a la justicia. No obstante, también la IA constituye un factor para fundamentar predictivamente conductas criminales en ciertos grupos sociales, étnicos, religiosos o clases económicas, impactando en el principio de igualdad ante la ley; o bien acorde a un pronóstico de riesgo, resocialización o reincidencia, incluyendo el patrón de actuación del defensor o fiscal en casos similares, sentenciar con una pena mayor dentro del rango establecido a discreción del juez, u otorgarle o cancelar la libertad condicional. Los abogados fuera de toda deontología profesional, pueden elegir representar o no a determinado sujeto ante ciertas circunstancias, juzgados, jueces y/o jurados, en función de probabilidades de ganar un juicio en función del acceso a ciertos historiales y patrones de casos similares. La IA puede elevar la eficiencia administrativa y la agilidad judicial pero también y para mostrar resultados políticos puede darse a expensas del debido proceso, a modo de juicio electrónico. Todo ello altera la percepción de la justicia, fundamental para legitimar un orden social y político.
  • En la medicina la IA posee excelentes aplicaciones en detección y diagnóstico, cálculo de riesgos, pronóstico y apoyo a la toma de decisiones clínicas, incluso aplicado a la medicina a distancia y de precisión, abaratando los procedimientos y maximizando su alcance. Aquí se suman problemas basados en la privacidad, la discriminación, el daño psicológico y la relación médico-paciente. Y esto es porque el procesamiento de ingentes cantidades de datos relacionados con la salud del individuo para discernir patrones, utilizados para predecir probabilidad de afecciones cardíacas, derrames cerebrales, diabetes, deterioro cognitivo, futuro abuso de drogas y tendencia al suicidio, provienen de historias clínicas digitalizadas, aseguradoras de salud o bienes, registros de compras en farmacias u otros comercios, antecedentes penales e incluso redes sociales mediante ciertas frases o fotos utilizadas, subidas o con las que se ha interactuado. Esto plantea un problema de veracidad en los pronósticos, cuyos datos primarios no son metodológicamente confiables, siendo el resultado algorítmico incorrecto, padeciendo el sujeto todo tipo de injusticias, agravios y daños frente a quien decida ante dicho pronóstico. Dicha información, aun siendo estadísticamente confiable, debiendo ser confidencial y para lo cual no hay una regulación, puede incluso ser comercializada a empleadores, aseguradoras, bancos o todo tercero interesado, conduciendo nuevamente a graves consecuencias. Sólo imaginarse que ante un pronóstico de salud basado en algoritmos vulnerables y con datos de fuentes no confiables, una persona no sea admitida en un empleo, el seguro le eleve la cuota o directamente no lo asegure así como un banco le niegue un préstamo hipotecario. Ello sumado a los daños psicológicos de quienes por ejemplo se anotician de su alta tendencia a padecer demencia o cáncer, y que luego dicha información comercializada resulte en campañas para instarlo a comprar productos y servicios para mejorar su sobrevida. En este sentido, resulta necesario basar los estudios predictivos en información confiable pero además, regular legalmente su confidencialidad y tal como se hace ante pruebas genéticas, aconsejar a los pacientes en el asesoramiento profesional para comprender mejor los resultados brindados, su naturaleza y alcance. Pero en ello surge otra preocupación relacionada con la relación médico-paciente, reduciendo al médico a instrumentador de instrucciones informáticas.

— ¿La carrera tecnológica le ganó a la ética y al orden legal?

— Actualmente sí, y de hecho se ha caído en un jacobinismo tecnológico. Es por ello que en la misma medida que la tecnología continúa impulsando la transformación en la salud, cuyo potencial crece exponencialmente con la cantidad de datos recopilados y procesados, deben considerarse las implicaciones éticas de los sistemas de IA para mejorar los resultados de los pacientes, beneficiando a los médicos y proporcionando al público una más amplia atención y de mayor calidad. Es decir, para que la IA sea realmente en beneficio de todos, no potenciando los actuales flagelos, debe ir acompañada de una deontología afín y un marco regulatorio legal, sin transformar las diversas áreas de acción humana en cajas negras. No debe haber opacidad en la metodología de procesamiento de datos así como tampoco en la fuente de estos. Mucho menos tendiendo al reemplazo del humano por algoritmos, como tomador de decisiones dado que aquel por definición es su usuario. Pero lo más importante, aun en el mejor de los casos con dichas variables aseguradas, nunca debe convertirse en un mágico e infalible oráculo determinista obliterando el juicio y el libre albedrío como signo específico y diferencial de lo humano.

— ¿Cuál es el desafío?

— Ocuparse para que los sistemas de IA sean bien implementados y regulados. Dejar de invertir en mundanas mejoras tecnológicas ignorando aquellas dolencias materiales de la humanidad pudiendo paliarse y hasta suprimirlas mediante una sola parte de dicha inversión, impactando sustancialmente en todos. Identificar la forma en que la IA pueda mejorar, abaratar y ampliar la calidad y acceso a todos los servicios y derechos, compartiendo datos y resultados para el bien común pero resguardando la oportuna confidencialidad. Todo ello sin cambiar el principio de autoridad donde en lugar del hombre, gobiernen y decidan los algoritmos, ni sacrificar los valores y principios fundacionales que dan sentido a cada una de las áreas donde la IA es aplicada.

Seguí leyendo: