El Departamento de Policía de Nueva York ha presentado una controvertida herramienta digital que ayuda a los oficiales a detectar patrones entre delitos potencialmente cometidos por las mismas personas (Foto: Getty Images)
El Departamento de Policía de Nueva York ha presentado una controvertida herramienta digital que ayuda a los oficiales a detectar patrones entre delitos potencialmente cometidos por las mismas personas (Foto: Getty Images)

El Departamento de Policía de la ciudad de Nueva York (NYPD, por sus siglas en inglés), ha comenzado a trabajar con un software de reconocimiento de patrones que permite detectar vínculos entre todos los crímenes cometidos en los distritos de la región. 

De acuerdo con la agencia Associated Press, este software de aprendizaje de máquinas se desarrolló internamente durante un período de dos años. Patternizr, como lo nombraron sus creadores, analiza las características de los cientos de miles eventos delictivos registrados para encontrar posibles patrones que los vinculen.

El informe de AP puso como ejemplo un caso que sirvió para entender el funcionamiento de Patternizr: hallaron que un ladrón utilizó una jeringa para amenazar al personal de dos tiendas de Home Depot que se encontraban a kilómetros de distancia.

Patternizr, como lo nombraron sus creadores, analiza las características de los cientos de miles eventos delictivos registrados para encontrar posibles patrones que los vinculen (Foto: Archivo)
Patternizr, como lo nombraron sus creadores, analiza las características de los cientos de miles eventos delictivos registrados para encontrar posibles patrones que los vinculen (Foto: Archivo)

Sin embargo, el sistema ha sido criticado por varios expertos que argumentaron que el software podría tener una orientación racial.

La NYPD construyó el software utilizando un análisis de 10 años de patrones que el departamento había identificado manualmente y supuestamente eliminó atributos sensibles como el género y la raza, para evitar sesgos discriminatorios.

Pero para el analista Darin Stewart, existe el riesgo de que aún pueda formarse un sesgo de algoritmo en el análisis de delitos basado en el aprendizaje automático.

"Eliminar la raza y el género como factores explícitos en los datos de entrenamiento son básicamente apuestas de mesa, el mínimo necesario", explicó Stewart al SearchBusinessAnalytics.com.

El año pasado hubo más de 68,000 delitos en Nueva York (Foto: Archivo)
El año pasado hubo más de 68,000 delitos en Nueva York (Foto: Archivo)

"No eliminará, y posiblemente ni siquiera reducirá, el sesgo racial y de género en el modelo porque aún está capacitado en los resultados históricos", señaló.

El director legal de la Unión de Libertades Civiles de Nueva York, Christopher Dunn, se hizo eco de esta preocupación, y agregó: "La institución policial en Estados Unidos está sistemáticamente sesgada contra las comunidades de color".

Los expertos coinciden en que si el sesgo racial o de género desempeñó un papel en acciones policiales pasadas, entonces las predicciones de los modelos actuales también se habrían visto afectadas.

Tampoco descartaron que el exceso de confianza en esta nueva herramienta podría llevar a que personas inocentes sean encarceladas.

A pesar de que las tasas de delincuencia se redujeron drásticamente, el año pasado hubo más de 68,000 delitos en Nueva York.