La predicción de los riesgos a través del uso de la inteligencia artificial es una herramienta que desde hace varios años utilizan las compañías de seguros. Así, con base en datos estadísticos y un perfil del cliente, esas empresas determinan índices de probabilidad de accidentes y, por tanto, qué prima le corresponderá pagar a cada cliente. Las personas son agrupadas en distintos universos a partir de datos como edad, género, estado civil, cuánto tiempo conducen por día, etcétera. Esto permite determinar qué características presentan quienes generan más accidentes y establecer una pauta comparativa a partir de una tabla de puntaje conocida como scoring. De ese modo, aquellos que en su historial presentan menos siniestros y una conducta previsible acceden a mayores descuentos en la cuota de su seguro.

En los últimos años, en Estados Unidos la inteligencia artificial ha trascendido el ámbito de las aseguradoras e incursionó especialmente en el derecho penal. En estados como Oregón, Oklahoma, Texas, California, Nebraska, Colorado, Indiana, Ohio, Idaho, Delaware, Washington, Arizona, Virginia y Alabama, el score se convirtió en una herramienta que ayuda a los jueces a fijar las sentencias. El sistema conocido bajo la sigla COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) es uno de los más populares.

Cuando se trata de impartir justicia, el scoring es utilizado como un sistema predictivo que trabaja algorítmicamente con los datos obtenidos para intentar inferir qué probabilidades tiene un sujeto de reincidir en la comisión de un delito. Para asignar un puntaje a quienes se evalúa, se toma en cuenta una serie de factores crimonogénicos (causas o concausas de la criminalidad) que se encuentran presentes en el sujeto en relación con una población de similares características.

La idea central de la predicción en el ámbito penal, por un lado, se vincula con un diagnóstico lo más preciso posible en función del pasado y el presente del condenado. Por otra parte, se lo compara con un grupo de origen similar en características generales. Los datos que permiten la comparación se obtienen del historial criminal del delincuente. Surgen de un legajo detallado de todos sus antecedentes criminales y de un cuestionario de 137 preguntas que se le formulan al acusado en una entrevista. Por ejemplo, si accedió al beneficio de la libertad condicional, si ha cumplido con las condiciones establecidas, a qué edad cometió el primer hecho ilícito, el grado de instrucción educativa alcanzado. En el cuestionario, se incluyen una serie de preguntas como: "¿Alguno de sus padres fue enviado a la cárcel? ¿Cuántos de sus amigos-conocidos están tomando drogas ilegalmente? ¿Cuántas veces se metía en peleas mientras estaba en la escuela?". También se le requiere que conteste si está de acuerdo o en desacuerdo con declaraciones como: "Una persona hambrienta tiene derecho a robar" y "si la gente me enoja o pierdo la paciencia, puedo ser peligroso".

Entre ambos datos (objetivos) se reconstruye el pasado y se esboza el presente de la persona que solicita el beneficio de la libertad condicional. Sin embargo, hay datos del pasado que influyen más que otros. El scoring obtenido representa el riesgo en una escala de 1 (riesgo bajo) a 10 (riesgo alto). Se trata de una comparación de cuán riesgoso se ve el individuo en relación con una población segmentada. Bajo esta lógica, si se obtiene un score de 4, el 60% de la población se ve como más riesgosa que el sujeto analizado, mientras que un 30% parece menos riesgoso. Entonces, un hombre de 25 años que cometió su primer delito a los 16 y solicita la libertad condicional obtendrá un score de alto riesgo situado en la escala en un puntaje mayor o igual a 8 puntos. Por el contrario, a mayor edad del delincuente, es menor el score, incluso si cometió un delito grave.

En términos ilustrativos, resulta interesante un caso del estado de Alabama, donde la ley obliga a la Justicia a utilizar la inteligencia artificial. Allí, una persona fue declarada culpable de homicidio como consecuencia de su conducta imprudente al correr picadas de autos. Anteriormente había cometido graves infracciones a la ley de tránsito (pasó los semáforos en rojo). Tiene 45 años, es blanco, casado, con dos hijos, sin trabajo estable y ha cumplido tratamientos por abuso de consumo de alcohol y estupefacientes. Se encuentra cumpliendo su condena y se acerca la fecha en la cual las normas indican que un juez debe decidir si le otorga un régimen de libertad condicional. Es muy importante que se tome una decisión adecuada para evitar que el condenado vuelva a delinquir luego de que se le conceda el beneficio. Básicamente, se necesita una predicción lo más acertada posible. Con todos esos datos, se establece una comparación entre ciertos sectores de una población segmentada previamente como riesgosa, personas que hayan tenido condenas en el sistema penal, y la persona que se evalúa. De allí que el score de riesgo que asigna este tipo de sistemas no puede predecir el comportamiento a nivel individual. El puntaje que brinda es, en realidad, una comparación, una aproximación a un grupo de pertenencia.

Si bien algunos de los indicadores seleccionados están presentes en poblaciones que cometen delitos, también se encuentran en personas inocentes. Así, la pobreza, la raza, el nivel educativo e incluso ciertos rasgos de la personalidad son ponderados por este tipo de programas para asignar un determinado score. Además, el sistema presenta otras desviaciones. En este sentido, el desarrollador de COMPAS advierte que una persona puede obtener un score de reincidencia de delito violento altamente probable (8-10 puntos) en el caso de que "sea joven, desempleado, haya cometido su primer delito a una edad temprana y cuente con un historial negativo, aunque nunca haya cometido ese tipo de delito". A la inversa, una persona mayor, aunque haya cometido un delito violento, puede tener un score de riesgo menor.

Este ejemplo evidencia por qué la inteligencia artificial es un tsunami que lo transformará todo. La Justicia de Estados Unidos, Corte de Wisconsin, advirtió que COMPAS tiene limitaciones, y que no puede utilizarse para determinar si el delincuente debe o no ser encarcelado; tampoco puede servir para dar por probadas circunstancias agravantes o atenuantes, ni para determinar la duración de la condena.

Si la inteligencia artificial se comenzara a aplicar en la Justicia argentina, habría que ser extremadamente cauteloso en función de las grandes diferencias entre los sistemas penales de ambos países y, esencialmente, en el modo en que esto afectaría la vigencia y el respeto a los derechos humanos.

El autor es fiscal general adjunto de CABA y profesor de Derecho Administrativo, UBA. Posgraduado en la Sorbona, profesor invitado en la misma universidad.