Así es como un sistema de reconocimiento facial te puede acusar de un hurto que no has cometido

Imaginá estar caminando tranquilamente por una tienda y, de un momento a otro, encontrarte rodeado por empleados que te miran como si fueras un delincuente. No sabés por qué, nadie te da explicaciones, y lo siguiente que sabés es que te piden que te vayas del local. ¿La causa? Una herramienta de reconocimiento facial te ha identificado erróneamente como un ladrón. Aunque suene a ciencia ficción, esto ya ha ocurrido en la vida real.

Este episodio tuvo lugar en una sucursal de Home Bargains, en el Gran Manchester, Reino Unido. Una mujer, Danielle Horan, fue expulsada injustamente de la tienda. No era la primera vez que le pasaba: en una visita anterior, simplemente la escoltaron hacia la salida sin darle motivos. La segunda vez, todo fue más angustiante. Mientras miraba productos con su madre de 81 años, notó que los empleados la observaban con recelo y que, finalmente, la confrontaban.

Una confusión tecnológica con consecuencias reales

Lo que había ocurrido era que un sistema de seguridad basado en reconocimiento facial, llamado Facewatch, la había marcado por error como una persona que había robado papel higiénico por un valor de 11,26 euros. La acusación era falsa, pero el daño ya estaba hecho. Su imagen fue compartida con otras tiendas del mismo grupo como si se tratara de una delincuente habitual.

Facewatch es una tecnología que busca prevenir delitos en comercios. Su funcionamiento consiste en escanear los rostros de las personas que ingresan y compararlos con una base de datos de individuos que anteriormente hayan sido captados cometiendo robos. Si detecta una coincidencia, emite una alerta al personal de seguridad. El problema es que esta herramienta no es infalible.

Danielle quedó en shock. Nadie le explicaba qué estaba ocurriendo y la forma en que fue tratada le generó ansiedad, náuseas e insomnio. “Gracias a mi persistencia, finalmente logré algo, pero no fue fácil, fue muy estresante”, declaró. La injusticia la impulsó a investigar por su cuenta qué estaba pasando.

La lucha por limpiar su nombre

Indignada, comenzó a enviar correos y a presentar reclamos tanto a Home Bargains como a Facewatch. Descubrió que su rostro había sido guardado por error en el sistema, lo que explicaba por qué cada vez que ingresaba a una tienda asociada a esa red, era tratada como sospechosa. Tenía comprobantes de sus compras y ninguna conducta delictiva, pero aun así había sido etiquetada como ladrona.

Finalmente, ambas compañías admitieron el error. Desde Facewatch, se comunicaron con ella y ofrecieron disculpas: “Reconocemos y comprendemos lo angustiosa que debió haber sido esta experiencia, y desde entonces el minorista ha implementado capacitación adicional para su personal”. Además, suspendieron el uso del software en la tienda donde ocurrió el incidente.

Un problema que va más allá de un solo caso

Este no es un hecho aislado. Según reportes de la BBC, más de 35 personas han presentado denuncias similares por falsas identificaciones realizadas por sistemas de reconocimiento facial. Madeleine Stone, representante de la organización defensora de derechos civiles Big Brother Watch, alertó que muchas personas inocentes están siendo tratadas como culpables sin contar con un debido proceso. “Están siendo etiquetadas erróneamente como delincuentes”, afirmó.

El Departamento de Ciencia, Innovación y Tecnología del Reino Unido ha explicado que el uso de estas tecnologías en comercios es legal, siempre y cuando se respeten las regulaciones sobre protección de datos personales. Sin embargo, el caso de Horan deja en evidencia que, aunque la legalidad esté clara, su aplicación práctica aún tiene muchas fallas que pueden dañar a personas inocentes.

¿Hasta qué punto confiar en la inteligencia artificial?

Los sistemas de reconocimiento facial han sido implementados con el objetivo de aumentar la seguridad. Se utilizan en aeropuertos, oficinas gubernamentales, estadios e incluso en nuestros teléfonos móviles. Sin embargo, no todos los contextos son iguales. En los dispositivos personales, como los smartphones, el margen de error es pequeño y, en caso de fallos, el impacto suele ser mínimo. En cambio, cuando estos errores suceden en espacios públicos y con consecuencias legales o sociales, el riesgo es mayor.

Uno de los principales problemas es que este tipo de tecnologías aún no tiene la capacidad de identificar a las personas con un 100 % de precisión. Factores como la calidad de la imagen, la luz, los cambios físicos en el rostro o incluso el sesgo en los algoritmos, pueden provocar coincidencias erróneas. En el caso de Danielle, fue suficiente para hacerla pasar por una ladrona y generar un escarnio que la marcó emocionalmente.

Una historia que deja muchas preguntas abiertas

Aunque la situación de Danielle Horan se resolvió, lo vivido fue traumático. Lo más grave no fue solo la acusación, sino el trato que recibió, la falta de explicaciones y el daño psicológico que sufrió por una tecnología que, en teoría, debía ayudar. No se trata únicamente de mejorar el software, sino también de garantizar que el uso de estas herramientas esté acompañado de protocolos humanos adecuados, que eviten que una falla técnica derive en una injusticia.

Además, este caso plantea una pregunta crucial: ¿hasta qué punto estamos dispuestos a ceder nuestra privacidad en nombre de la seguridad? ¿Quién controla lo que estos sistemas ven, almacenan o interpretan? ¿Qué derechos tienen los ciudadanos frente a los errores de una inteligencia artificial?

Por ahora, Facewatch ha sido suspendido en las tiendas implicadas en el caso. Las empresas involucradas han pedido disculpas y prometido mejorar sus protocolos. Pero la historia de Danielle Horan se suma a una lista cada vez más larga de personas afectadas por sistemas que, aunque modernos, todavía no están exentos de fallos.

La tecnología puede ser una gran aliada, pero necesita supervisión, transparencia y responsabilidad. De lo contrario, cualquier ciudadano podría ser señalado injustamente por un crimen que jamás cometió, y eso es un riesgo que ninguna sociedad debería permitir.