Un error de reconocimiento facial provocó que una mujer sea encarcelada seis meses y pierda su casa

La acusación se basó en imágenes de baja calidad y en la confianza excesiva de los investigadores en la inteligencia artificial

Guardar
Una mujer fue arrestada por
Una mujer fue arrestada por un fallo en el reconocimiento facial con IA. (Imagen Ilustrativa Infobae)

Un error en un sistema de reconocimiento facial llevó a la detención injusta de Angela Lipps, una mujer de 50 años en Tennessee, quien pasó casi seis meses en la cárcel acusada de delitos que no cometió. El caso, ocurrido en Estados Unidos, expone los riesgos del uso de inteligencia artificial en procesos policiales y judiciales, especialmente cuando sus resultados no son verificados adecuadamente por humanos.

Lipps fue arrestada el 14 de julio de 2025 por agentes federales que la identificaron como una supuesta integrante de una red de fraude bancario en Fargo, Dakota del Norte. La acusación se basó en una coincidencia generada por un software de reconocimiento facial que analizó imágenes de baja calidad obtenidas de cámaras de seguridad. Sin embargo, la mujer nunca había estado en ese estado ni tenía vínculos con los delitos investigados.

Durante su detención, Lipps permaneció cuatro meses en una cárcel de Tennessee sin derecho a fianza, a la espera de ser extraditada. En total, pasó cerca de medio año privada de su libertad.

La mujer pasó 6 meses
La mujer pasó 6 meses en la cárcel antes que pudiera demostrar su inocencia. (Imagen Ilustrativa Infobae)

La imposibilidad de trabajar o gestionar sus finanzas durante ese periodo tuvo consecuencias severas: perdió su casa, su vehículo e incluso su mascota. También denunció condiciones difíciles durante su encierro, como la negativa a usar su dentadura postiza durante más de tres meses.

El origen del error se remonta a una serie de fraudes ocurridos entre abril y mayo de 2025 en Fargo. La sospechosa utilizaba una identificación falsa para retirar dinero de cuentas bancarias. Ante la falta de pistas claras, la policía recurrió a tecnología de reconocimiento facial para identificar a la autora a partir de grabaciones de seguridad. El sistema arrojó una coincidencia con el rostro de Lipps.

No obstante, el problema no fue únicamente tecnológico. Expertos señalan que el caso refleja un fenómeno conocido como “sesgo de automatización”, que ocurre cuando los investigadores confían excesivamente en los resultados de sistemas automatizados sin realizar comprobaciones independientes. En este caso, un detective comparó la imagen sugerida por el software con fotografías de la licencia de conducir y redes sociales de Lipps, concluyendo que existía similitud suficiente para solicitar una orden de arresto.

La policía se confió en
La policía se confió en los datos de la IA y decidió arrestar a una mujer sin tener pruebas. (Imagen Ilustrativa Infobae)

La situación comenzó a revertirse recién cuando Lipps fue trasladada a Dakota del Norte y obtuvo representación legal. Su abogado, Jay Greenwood, recopiló pruebas clave que la policía no había considerado. Registros bancarios demostraron que, en las fechas en que ocurrieron los robos, la mujer se encontraba en Tennessee realizando actividades cotidianas como compras y pedidos de comida, a más de 1.900 kilómetros de distancia de los hechos investigados.

Ante esta evidencia, las autoridades retiraron todos los cargos el 24 de diciembre de 2025. Sin embargo, la liberación no implicó una reparación inmediata. Lipps fue dejada en libertad en Fargo sin recursos económicos y con ropa inadecuada para el clima invernal. Con la ayuda de organizaciones civiles y abogados, logró regresar a su hogar, donde enfrentó la realidad de haber perdido gran parte de su patrimonio.

Hasta el momento, según declaraciones de la propia afectada, no ha recibido disculpas oficiales por parte del Departamento de Policía de Fargo. El caso ha generado cuestionamientos sobre el uso de inteligencia artificial en tareas de seguridad pública y ha reavivado el debate sobre la necesidad de establecer controles más estrictos.

Mujer arrestada perdió su casa
Mujer arrestada perdió su casa y carro al no poder pagarlos. (Imagen Ilustrativa Infobae)

El senador estatal Tim Mathern calificó el episodio como “desgarrador” y pidió revisar los procedimientos que permiten que una coincidencia tecnológica derive en una detención sin pruebas adicionales. Especialistas coinciden en que, si bien estas herramientas pueden ser útiles, no deben reemplazar el análisis humano ni utilizarse como única base para decisiones judiciales.

El caso de Angela Lipps se suma a otros antecedentes que evidencian fallas en sistemas de reconocimiento facial, especialmente cuando se aplican sobre imágenes de baja calidad. La situación refuerza la necesidad de establecer marcos regulatorios que garanticen un uso responsable de la inteligencia artificial y eviten consecuencias irreversibles para las personas afectadas.