
La historia de Danielle Horan demuestra que el uso de la tecnología en la seguridad puede tener sus fallos y es fundamental hacer una revisión continua, porque esta mujer vivió varios momentos incómodos tras ser expulsada de varias tiendas de Reino Unido por un error de reconocimiento facial, al catalogarla como una delincuente.
En medio de toda esta situación, ella pensó que era parte de una broma ante las miradas confusas de los demás clientes a los sitios donde ingresaba y era sacada por parte de la seguridad.
“En cuanto crucé el umbral de la puerta, se comunicaron por radio y me rodearon, diciéndome: ‘Tienes que salir de la tienda’. Todos me miraban. Todos los clientes en la caja y yo pensaba: ‘¿Por qué?’”, contó la mujer implicada a la BBC.
Por qué un error de reconocimiento facial acusó a una mujer de delincuente
Danielle Horan, quien se dedica al negocio del maquillaje, nunca imaginó que su identidad terminaría enredada con acusaciones de delincuencia. Su calvario comenzó tras una visita a una tienda Home Bargains en el Gran Manchester. Durante su visita, fue escoltada fuera del local sin explicación alguna.

La razón apareció más tarde: un sistema de reconocimiento facial llamado Facewatch la había marcado incorrectamente como responsable de un robo de papel higiénico valorado en aproximadamente en 10 libras esterlinas (13 dólares).
Según relató, al regresar con su madre de 81 años para intentar investigar el motivo de su expulsión, nuevamente le impidieron el acceso, lo que desencadenó sentimientos de ansiedad y frustración.
Horan, inicialmente incrédula, encontró que había sido “etiquetada” como delincuente y compartida con otras tiendas locales a través de sistemas de seguridad.
El software en cuestión, desarrollado por Facewatch, pretendía ser una herramienta de seguridad útil para identificar y prevenir el regreso de individuos responsables de hurtos. Este sistema escanea y almacena imágenes faciales de clientes para reconocer a aquellos previamente involucrados en robos. Sin embargo, en el caso de Horan, todo se debió a un error grave.

Tras la insistencia de Horan, quien revisó sus transacciones bancarias para demostrar que había pagado por el papel higiénico, Facewatch reconoció que las acusaciones eran erróneas y atribuyó el incidente a una información incorrecta presentada por las tiendas involucradas.
Como medida de remediación, Facewatch suspendió el uso de su software en las sucursales implicadas mientras se llevaba a cabo una revisión del caso y se implementaba capacitación adicional para el personal de la tienda.
El incidente tuvo un impacto considerable en esta mujer, quien describió el periodo como estresante. “Mi ansiedad era terrible. Me sentía enferma; mi mente no dejaba de cuestionar qué había hecho mal”, contó a la BBC.
Adicionalmente, Madeleine Stone, una activista de la organización Big Brother Watch, señaló que más de 35 individuos han reportado situaciones similares donde sistemas de reconocimiento facial los han calificado erróneamente como criminales.

“Están siendo etiquetados erróneamente sin debido proceso”, afirmó. Este fenómeno, denominado “culpabilidad por algoritmo”, desafía principios jurídicos como la presunción de inocencia.
Un sistema legal, pero con errores
Si bien el uso de tecnologías de reconocimiento facial es legal en Reino Unido, su aplicación debe adherirse a estrictas leyes de protección de datos. Las organizaciones están obligadas a procesar los datos biométricos de manera justa, lícita y transparente, garantizando que su uso sea necesario y proporcional.
El Departamento de Ciencia, Innovación y Tecnología británico confirmó que aunque estas prácticas son legales, deben asegurar que ninguna persona se encuentre en situaciones como la vivida por Horan.
La experiencia de Danielle Horan no es única, pero resalta la urgencia de establecer controles más rigurosos. Big Brother Watch ha pedido al gobierno británico que prohíba completamente la tecnología de reconocimiento facial en minoristas hasta que se asegure la adecuada protección de derechos individuales.
Últimas Noticias
Cómo puedes saber con ChatGPT si una llamada, dirección o enlace son seguros o fraudulentos
Si el correo o número aparece como sospechoso, el asistente lo comunica de inmediato y sugiere medidas de seguridad

Copilot bajo la lupa: vulnerabilidad en Microsoft Office compromete la privacidad de correos
El incidente afecta directamente a la función Copilot Chat disponible en la pestaña de trabajo de las aplicaciones de Microsoft 365

Estudio revela que los CEO perciben poco impacto real de la IA en sus operaciones empresariales
Aunque dos de cada tres directivos reconocieron utilizar IA en sus procesos, el tiempo real dedicado es mínimo: cerca de 1,5 horas semanales

IA y redes eléctricas en Estados Unidos: desafíos y soluciones frente al crecimiento sostenido del consumo digital
El sector enfrenta la necesidad de modernizar la infraestructura y coordinar inversiones para responder al impacto de la inteligencia artificial sin comprometer la continuidad del servicio, según advierte Fortune


