Connect with us

Intelligenza artificiale

Stati Uniti: primo caso di arresto illegittimo a causa di un algoritmo difettoso

mm

La scorsa settimana, il New York Times ha riportato il primo caso di arresto illegittimo causato da un algoritmo difettoso negli Stati Uniti. L’incidente si è verificato a Detroit quando Robert Julian-Borchak Williams, un uomo afroamericano, è stato arrestato dopo essere stato falsamente identificato in un filmato di sicurezza che mostrava un individuo che commetteva un furto in un negozio. 

L’American Civil Liberties Union (ACLU) ha rapidamente preso azione e presentato una denuncia contro la polizia di Detroit. Dopo che l’ACLU ha sollecitato la cancellazione del caso di Williams e la rimozione delle sue informazioni dai database criminali di Detroit, i procuratori hanno proceduto con tali azioni.

Questo sviluppo è il primo del suo genere negli Stati Uniti e sottolinea alcune preoccupazioni serie che stanno iniziando a sorgere in tutto il mondo con l’uso della tecnologia di riconoscimento facciale da parte dello stato.

Problemi con i sistemi di riconoscimento facciale

I sistemi di riconoscimento facciale sono stati oggetto di controversia da tempo, diventando sempre più un punto di dibattito tra coloro che sono preoccupati per la privacy e le false accuse.

Con le recenti proteste in tutto il paese e in molte parti del mondo contro la brutalità e la discriminazione della polizia, tale scrutinio è solo aumentato. 

Questi algoritmi hanno portato un nuovo aspetto alla applicazione della legge e sono pieni di difetti. 

La falsa accusa

Il furto per il quale Williams è stato falsamente identificato si è verificato nel ottobre 2018. Il video di sorveglianza è stato poi caricato nel database di riconoscimento facciale dello stato del Michigan nel marzo 2019. 

La foto di Williams è riuscita a entrare in una lineup di foto, dove un guardia di sicurezza ha identificato Williams come colui che ha commesso il crimine. 

Secondo l’ACLU, quel guardia non ha mai effettivamente assistito al furto di persona.

A gennaio, Williams ha ricevuto una telefonata dal Dipartimento di polizia di Detroit che lo informava del suo arresto. Quando ha liquidato la chiamata come uno scherzo, la polizia è arrivata a casa sua solo un’ora dopo.

Williams è stato poi portato in un centro di detenzione dove gli sono state scattate foto, prese le impronte digitali e il DNA, e successivamente trattenuto tutta la notte alla stazione. 

Quello che è seguito è stato un interrogatorio per un crimine che non ha mai commesso, tutto a causa di un sistema di riconoscimento difettoso.

Il caso di Williams è stato cancellato due settimane dopo il suo arresto, ma su una scala più grande, questo incidente ha significato molto di più e ha implicazioni massive per la privacy. Con l’aumento dell’uso del software di riconoscimento facciale da parte dei governi e delle forze dell’ordine, questo caso potrebbe essere l’inizio di gravi violazioni, che già si stanno verificando in nazioni come la Cina, ma che non sono ancora arrivate negli Stati Uniti, almeno a conoscenza del pubblico.

Una di queste violazioni è che il campione di DNA di Williams, la sua foto e le impronte digitali sono ora tutte in archivio come risultato diretto della tecnologia. Non solo, ma anche il suo arresto è registrato.

Aziende private e forze dell’ordine

Il caso di Williams arriva mentre grandi aziende come IBM, Microsoft e Amazon hanno smesso di fornire la loro tecnologia di riconoscimento facciale alle forze dell’ordine.

La prima grande azienda a farlo è stata IBM quando il CEO Arvind Krishna ha inviato una lettera al Congresso su non offrire più software di riconoscimento facciale o di analisi di scopo generale. Inoltre, l’azienda ha interrotto la ricerca e lo sviluppo della tecnologia.

“IBM si oppone fermamente e non tollererà l’uso di alcuna tecnologia di riconoscimento facciale, compresa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, il profilo razziale, le violazioni dei diritti umani fondamentali e delle libertà, o per qualsiasi scopo che non sia coerente con i nostri valori e i principi di fiducia e trasparenza”, secondo la lettera. “Crediamo che ora sia il momento di iniziare un dibattito nazionale su come e se la tecnologia di riconoscimento facciale debba essere utilizzata dalle agenzie di polizia nazionali.”

Amazon ha seguito l’esempio quando ha annunciato una moratoria di un anno sull’uso del piattaforma di riconoscimento facciale Rekognition da parte delle forze dell’ordine. 

L’annuncio è arrivato solo pochi giorni dopo la decisione di IBM.

Uno dei lavori più importanti riguardo alla questione della discriminazione e della tecnologia di riconoscimento facciale è stato un documento del 2018 co-autore da Joy Buolamwini e Timnit Gebru. Buolamwini è un ricercatore al MIT Media Lab, e Gebru è un membro di Microsoft Research. 

Il documento del 2018 ha scoperto che “gli algoritmi di apprendimento automatico possono discriminare in base a classi come razza e genere”, tra le altre cose. 

Il caso di Robert Julian-Borchak Williams è estremamente preoccupante per molti che vivono negli Stati Uniti, ma è anche un indicatore di ciò che sta avvenendo in tutto il mondo. L’uso della tecnologia di riconoscimento facciale da parte dei governi e delle agenzie di polizia è solo all’inizio, e c’è molto poco in atto per prevenire che venga utilizzata in modo non etico. Sia che si tratti dell’uso diffuso della tecnologia di riconoscimento facciale da parte della Cina per la sorveglianza, o del caso di Williams che è stato falsamente identificato negli Stati Uniti, la tecnologia apre la popolazione mondiale a un insieme di nuove violazioni della privacy e dei diritti umani che in precedenza non esistevano.

Alex McFarland è un giornalista e scrittore di intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup di intelligenza artificiale e pubblicazioni in tutto il mondo.