Il New York Times ha segnalato sei episodi complessivi negli USA, sempre con vittime persone di colore
Era stata arrestata con l’accusa di aver rubato un’auto. In seguito si sarebbe però scoperto che Porcha Woodruff, una madre afroamericana incinta all’epoca dei fatti, non aveva commesso alcun reato. La polizia l’aveva individuata basandosi su una conclusione sbagliata dettata dal riconoscimento facciale, tecnologia sempre più utilizzata dalle autorità negli USA. Nonostante lo strumento abbia dimostrato la propria utilità nella lotta al crimine, il caso ha suscitato critiche legittime, soprattutto perché la scia di episodi analoghi suggerirebbe il fatto che i software abbiano bias cognitivi che li porterebbero a commettere gravi errori, soprattutto quando si tratta di identificare persone afroamericane.
La donna, rilasciata poi su cauzione dopo 11 ore dall’arresto, ha deciso di fare causa alla città. L’ingiustizia che ha subìto racconta di una stortura evidente nel sistema di controllo e videosorveglianza. Situazioni di falsi positivi, in cui il soggetto sospettato viene inquadrato dal riconoscimento facciale come il responsabile di un determinato reato, impongono una reazione da parte delle autorità. Quanto ci si può affidare completamente a questo strumento se di mezzo c’è la vita delle persone e la ricerca della giustizia? L’altro elemento scioccante è che la donna da arrestare non era incinta, mentre Porcha – i cui dati biometrici erano presenti nel database per via di un arresto risalente al 2015 – lo era visibilmente. A dimostrazione di un doppio errore, tecnologico ed umano.
Porcha Woodruff non è la prima persona vittima di un errore del riconoscimento facciale, ma il suo caso sta facendo scandalo. Come spiega il New York Times sono sei i precedenti e riguardano tutti individui afroamericani. DataWorks Plus, la società americana che offre il servizio alla città di Detroit, ha clienti in tutto il Paese.