Las cajas negras de la Justicia

En el universo de la Inteligencia Artificial hablamos de “cajas negras” cuando no se pueden conocer en su totalidad los procedimientos que permitieron llegar a un determinado resultado. Curiosamente, las instituciones como el Poder Judicial también están llenas de “cajas negras humanas”

Compartir
Compartir articulo
Tribunales federales de Comodoro Py
Tribunales federales de Comodoro Py

Si pudiéramos tomarnos al menos cinco minutos de nuestra cotidianidad para cerrar los ojos y pensar cómo era nuestra vida en relación a la tecnología hace diez años atrás, al volver a la realidad, tomaríamos conciencia de cómo el mundo, y por ende, las personas están influidas y determinadas por los emergentes de la cuarta revolución industrial a una velocidad exponencial nunca vista en la historia de la humanidad.

El pasaje del mudo analógico al universo digital y la producción masiva de datos habilita el desarrollo científico y tecnológico en una dimensión donde los algoritmos realizan tareas en tiempos imposibles de emular aún para el mejor cerebro humano.

Aunque muchas veces no lo percibimos cuando contratamos un servicio, queremos ver una serie o una película, tomar un turno con un médico o llegar seguros a un destino, estamos inmersos en el mundo de la inteligencia artificial basada en un algoritmo o una combinación de algoritmos. Un algoritmo es un conjunto y secuencia de instrucciones que, como si fuera una receta, le dice lo que hay que hacer a la computadora, smartphone, máquina, robot o cualquier otra tecnología hardware a la que esté integrada. De esta manera, la IA conduce a un resultado (output) particular basándose en la información disponible (input).

La IA se puede clasificar en tres categorías o clases. La “débil” que está diseñada para realizar una tarea concreta y particular con excelencia para aquello a lo que se dedica, pero inepta para cualquier otra cosa que salga de su ámbito específico. La “general” que sería capaz de desarrollar funciones cognitivas de la misma forma que puede hacerlo una persona humana con capacidades y habilidades avanzadas tales como razonamiento, aprendizaje conceptual, sentido común, planificación, reactividad al entorno, consciencia de sí mismo y emociones. La “súper inteligente” proyectada como un intelecto que por lejos sería mucho más inteligente que el mejor de los cerebros humanos en cualquier área (creatividad científica, sabiduría general y habilidades sociales) cuyo desarrollo puede alcanzar niveles muy superiores a los expresados por la especie humana.

Actualmente, solo existe la IA “débil” y la llegada de las nuevas formas de IA a la realidad de nuestra existencia se divide entre aquellos que sostienen que solo representa una aspiración sin un futuro posible y aquellos que expresan que no estamos lejos de que esto acontezca (transhumanistas como Ray Kurzweill denominan a esta instancia como singularidad tecnológica y la ubica a partir de 2045).

En el universo de la IA “débil” existen sistemas que funcionan utilizando una “caja blanca” los cuales basándose en un conjunto de técnicas que se utilizan para obtener predicciones, automatizaciones, clasificaciones o detecciones inteligentes posibilitan que los resultados a los que arriba sean auditables, trazables, explicables. En cambio, otros sistemas basados en el aprendizaje profundo (deep learning) configurados por redes neuronales artificiales organizadas por capas que le permiten reconocer patrones a partir de grandes cantidades de datos no estructurados pueden convertirse en una “caja negra” puesto que si bien los programadores conocen la arquitectura de la red, no está claro para otras personas qué es lo que ocurre en sus capas intermedias (entre el input y el output) y, por lo tanto, cómo se alcanza una decisión.

La imposibilidad de los seres humanos de poder conocer la forma en que se desarrolla el proceso de una IA cuando intervienen “cajas negras” las cuales impiden visualizar en su totalidad los procedimientos que permiten interpretar o explicar de forma accesible al lenguaje humano como son ponderados los atributos y la importancia que se le asigna a cada dato e información para llegar a un determinado resultado, hace que un gran experto como Juan Corvalán denomine a esta situación el “lado oscuro de la IA” que la inhibe de ser utilizada en ámbitos de la justicia o de la administración pública debido a que no se conocen los argumentos o fundamentos de la decisión que pueda finalmente adoptarse.

Cuando se analizan los eventuales riesgos o problemas que surgen a partir del funcionamiento de las “cajas negras”, se infiere casi automáticamente, que las decisiones tomadas por personas humanas son preferibles a las decisiones que puedan ser adoptadas por un algoritmo basado en una caja negra o bien que no existen situaciones de “cajas negras” humanas. Como sostiene con acierto Pamela Tolosa esta conclusión soslaya completamente que el cerebro humano también es en algún sentido una “caja negra”, y que a diferencia de lo que sucede con los algoritmos, no podemos hacer nada para evitar las “cajas negras humanas”.

La Justicia está llena de “cajas negras humanas”. Por ejemplo, cuando los jueces y juezas sostienen que de toda la prueba producida eligen solo alguna para resolver el caso o cuando entre dos opciones interpretativas eligen la más restrictiva para el sistema de derechos. En nuestro país, la más paradigmática desde 1990, está conformada por un artículo (el famoso 280) del Código Procesal Civil y Comercial de la Nación que habilita a la Corte Suprema de Justicia a rechazar los casos que arriban a su conocimiento según su “sana discreción” y sin tener que brindar ningún fundamento de la sentencia dictada.

Seguramente un consolidado exceso de confianza afecte nuestra percepción de forma tal que tendemos a confiar más en las intuiciones humanas que en cualquier algoritmo prefiriendo una “caja negra humana” a una “caja negra no humana”, pero lo cierto es que en cuanto a los efectos de una y otra, no parece existir una diferencia relevante puesto que nuestras intuiciones también son los resultados de una “caja negra”. Esto no implica que nada pueda hacerse frente a las “cajas negras” de la IA con el objeto de lograr mayor transparencia en las decisiones que finalmente se tomen, pero habrá que asumir que cuando esto tecnológicamente suceda, estas decisiones tendrán una dimensión de trazabilidad ontológica en términos de racionalidad cognitiva excesivamente superior a las decisiones humanas basadas en las “cajas negras humanas”.

Seguir leyendo: