Um caso recente nos Estados Unidos acendeu mais um alerta sobre os riscos do uso de inteligência artificial em sistemas de identificação. Uma falha em tecnologia de reconhecimento facial fez com que uma mulher de 50 anos fosse presa injustamente por mais de cinco meses.
A vítima, Angela Lipps, foi apontada como suspeita de fraude bancária na cidade de Fargo, mesmo vivendo no Tennessee, a cerca de 2.000 km de distância. Segundo ela, nunca esteve na região e sempre afirmou ser inocente.
A identificação equivocada ocorreu após o uso do sistema Clearview AI, que analisa bilhões de imagens coletadas da internet. Investigadores consideraram que características físicas, como rosto e cabelo, eram semelhantes às da verdadeira suspeita — o suficiente para justificar a emissão de um mandado de prisão.
Angela foi detida em sua casa em julho do ano passado e passou três meses presa no Tennessee. Em seguida, foi transferida para Dakota do Norte, onde permaneceu por mais dois meses encarcerada. A reviravolta só aconteceu em dezembro, quando sua defesa apresentou provas de que ela não estava em Fargo durante o período dos crimes.
Pouco antes do Natal, a Justiça determinou o arquivamento das acusações e a libertação da mulher. Posteriormente, o Departamento de Polícia de Fargo reconheceu que houve falhas no processo investigativo. Também foi revelado que a identificação inicial veio da cidade vizinha, West Fargo, que utiliza o sistema da Clearview AI.
A verdadeira autora das fraudes teria utilizado uma identidade militar falsa para realizar saques de alto valor, enquanto a vítima enfrentava as consequências de um erro tecnológico e investigativo.
Mesmo em liberdade, os impactos continuam. Angela relata ter perdido sua casa, carro e até o cachorro durante o período em que esteve presa. Além disso, carrega danos emocionais e à sua reputação. Sua defesa critica a ausência de um pedido formal de desculpas e avalia a possibilidade de entrar com uma ação judicial por violação de direitos.
O caso reforça preocupações já discutidas globalmente sobre o uso de reconhecimento facial baseado em IA, especialmente quando decisões críticas são tomadas com base em identificações automatizadas sem validação rigorosa.