
Un error en un sistema de reconocimiento facial llevó a la detención injusta de Angela Lipps, una mujer de 50 años en Tennessee, quien pasó casi seis meses en la cárcel acusada de delitos que no cometió. El caso, ocurrido en Estados Unidos, expone los riesgos del uso de inteligencia artificial en procesos policiales y judiciales, especialmente cuando sus resultados no son verificados adecuadamente por humanos.
Lipps fue arrestada el 14 de julio de 2025 por agentes federales que la identificaron como una supuesta integrante de una red de fraude bancario en Fargo, Dakota del Norte. La acusación se basó en una coincidencia generada por un software de reconocimiento facial que analizó imágenes de baja calidad obtenidas de cámaras de seguridad. Sin embargo, la mujer nunca había estado en ese estado ni tenía vínculos con los delitos investigados.
Durante su detención, Lipps permaneció cuatro meses en una cárcel de Tennessee sin derecho a fianza, a la espera de ser extraditada. En total, pasó cerca de medio año privada de su libertad.

La imposibilidad de trabajar o gestionar sus finanzas durante ese periodo tuvo consecuencias severas: perdió su casa, su vehículo e incluso su mascota. También denunció condiciones difíciles durante su encierro, como la negativa a usar su dentadura postiza durante más de tres meses.
El origen del error se remonta a una serie de fraudes ocurridos entre abril y mayo de 2025 en Fargo. La sospechosa utilizaba una identificación falsa para retirar dinero de cuentas bancarias. Ante la falta de pistas claras, la policía recurrió a tecnología de reconocimiento facial para identificar a la autora a partir de grabaciones de seguridad. El sistema arrojó una coincidencia con el rostro de Lipps.
No obstante, el problema no fue únicamente tecnológico. Expertos señalan que el caso refleja un fenómeno conocido como “sesgo de automatización”, que ocurre cuando los investigadores confían excesivamente en los resultados de sistemas automatizados sin realizar comprobaciones independientes. En este caso, un detective comparó la imagen sugerida por el software con fotografías de la licencia de conducir y redes sociales de Lipps, concluyendo que existía similitud suficiente para solicitar una orden de arresto.

La situación comenzó a revertirse recién cuando Lipps fue trasladada a Dakota del Norte y obtuvo representación legal. Su abogado, Jay Greenwood, recopiló pruebas clave que la policía no había considerado. Registros bancarios demostraron que, en las fechas en que ocurrieron los robos, la mujer se encontraba en Tennessee realizando actividades cotidianas como compras y pedidos de comida, a más de 1.900 kilómetros de distancia de los hechos investigados.
Ante esta evidencia, las autoridades retiraron todos los cargos el 24 de diciembre de 2025. Sin embargo, la liberación no implicó una reparación inmediata. Lipps fue dejada en libertad en Fargo sin recursos económicos y con ropa inadecuada para el clima invernal. Con la ayuda de organizaciones civiles y abogados, logró regresar a su hogar, donde enfrentó la realidad de haber perdido gran parte de su patrimonio.
Hasta el momento, según declaraciones de la propia afectada, no ha recibido disculpas oficiales por parte del Departamento de Policía de Fargo. El caso ha generado cuestionamientos sobre el uso de inteligencia artificial en tareas de seguridad pública y ha reavivado el debate sobre la necesidad de establecer controles más estrictos.

El senador estatal Tim Mathern calificó el episodio como “desgarrador” y pidió revisar los procedimientos que permiten que una coincidencia tecnológica derive en una detención sin pruebas adicionales. Especialistas coinciden en que, si bien estas herramientas pueden ser útiles, no deben reemplazar el análisis humano ni utilizarse como única base para decisiones judiciales.
El caso de Angela Lipps se suma a otros antecedentes que evidencian fallas en sistemas de reconocimiento facial, especialmente cuando se aplican sobre imágenes de baja calidad. La situación refuerza la necesidad de establecer marcos regulatorios que garanticen un uso responsable de la inteligencia artificial y eviten consecuencias irreversibles para las personas afectadas.
Últimas Noticias
Un robot humanoide da la bienvenida en la Casa Blanca: así funciona Figure 03
La máquina está diseñada para adaptarse a entornos domésticos y realizar tareas cotidianas como lavar la ropa, limpiar o fregar los platos de manera autónoma

El iPhone o Samsung no son los únicos: los equipos que ya tienen conexión directa con los satélites de Elon Musk
El acceso a internet satelital desde el celular ya es una posibilidad para millones de usuarios

¿Quién manda en la música? El dato de Spotify que revela el poder imparable de las mujeres en Colombia
Una de cada cinco reproducciones que se dan en Spotify Colombia es de canciones escritas por mujeres

¿Harto de los anuncios internos? El nuevo botón de YouTube Premium que ‘limpia’ los videos por ti
La plataforma incorpora una función llamada “Adelantar” que permite a los usuarios saltar automáticamente los segmentos

Netflix ya no funciona en tu celular: 3 trucos legales para seguir viendo tus series sin cambiar de teléfono
Si tienes un iPhone o iPad que se quedó estancado en versiones antiguas de iOS, puedes aprovechar la función ‘Mis Compras’ de la App Store




