Inteligență artificială
Statele Unite au înregistrat primul caz de arestare abuzivă din cauza unui algoritm defect

În săptămâna trecută, The New York Times a raportat primul caz de arestare abuzivă cauzată de un algoritm defect în Statele Unite. Incidentul a avut loc în Detroit, când Robert Julian-Borchak Williams, un bărbat afro-american, a fost arestat după ce a fost fals identificat cu o persoană care apărea în imagini de securitate, comițând furt din magazine.
Uniunea pentru Libertăți Civile din America (ACLU) a luat rapid măsuri și a depus o plângere împotriva poliției din Detroit. După ce ACLU a cerut ca cazul lui Williams să fie respins și informațiile sale să fie șterse din bazele de date penale din Detroit, procurorii au procedat la aceste acțiuni.
Acest dezvoltare este prima de acest fel în Statele Unite și subliniază unele preocupări grave care încep să apară în întreaga lume cu privire la utilizarea tehnologiei de recunoaștere facială de către stat.
Probleme cu sistemele de recunoaștere facială
Sistemele de recunoaștere facială au fost un subiect de controversă de ceva timp, devenind din ce în ce mai mult un punct de dezbatere între cei care se preocupă de confidențialitate și acuzații false.
Cu protestele recente din țară și din multe părți ale lumii împotriva brutalității polițienești și a discriminării, această atenție a crescut și mai mult.
Acești algoritmi au adus un aspect complet nou în aplicarea legii și sunt plini de defecte.
Acuzația falsă
Jaful pentru care Williams a fost identificat fals ca fiind vinovat a avut loc în octombrie 2018. Videoclipul de supraveghere a fost ulterior încărcat în baza de date de recunoaștere facială a statului Michigan în martie 2019.
Fotografia lui Williams a ajuns într-un șir de fotografii, unde un paznic de securitate l-a identificat pe Williams ca fiind cel care a comis crima.
Conform ACLU, paznicul nu a fost martor ocular la jaf.
În ianuarie, Williams a primit un apel telefonic de la Departamentul de Poliție din Detroit, care îl informa despre arestarea sa. Când a considerat apelul ca pe o glumă, poliția a sosit la casa lui doar o oră mai târziu.
Williams a fost dus la un centru de detenție, unde i s-au luat fotografia, amprentele și probele de ADN, și a fost ulterior ținut toată noaptea la stație.
Ce a urmat a fost un interogatoriu pentru o crimă pe care nu a comis-o, tot din cauza unui sistem de recunoaștere defect.
Cazul lui Williams a fost respins două săptămâni după arestarea sa, dar la o scară mai mare, acest incident a însemnat mult mai mult și are implicații masive pentru confidențialitate. Cu utilizarea tot mai frecventă a software-ului de recunoaștere facială de către guverne și agenții de aplicare a legii, acest caz poate fi începutul unor încălcări grave, care au început deja să se desfășoare în țări precum China, dar care încă nu au ajuns în Statele Unite, cel puțin în ceea ce știe publicul.
Una dintre aceste încălcări este că mostrele de ADN, fotografia și amprentele lui Williams sunt acum toate în fișier ca urmare directă a tehnologiei. Nu numai atât, dar arestarea sa este înregistrată.
Companii private și agenții de aplicare a legii
Cazul lui Williams vine în momentul în care companii majore precum IBM, Microsoft și Amazon au încetat să mai furnizeze tehnologia de recunoaștere facială agențiilor de aplicare a legii.
Prima companie majoră care a făcut acest lucru a fost IBM, când CEO-ul Arvind Krishna a trimis o scrisoare Congresului cu privire la oprirea oferirii de software de recunoaștere facială sau analiză generală. Pe lângă aceasta, compania și-a oprit cercetarea și dezvoltarea tehnologiei.
„IBM se opune ferm și nu va tolera utilizarea oricărei tehnologii de recunoaștere facială, inclusiv a tehnologiei de reconoaștere facială oferite de alți furnizori, pentru supraveghere în masă, profilare rasială, încălcarea drepturilor și libertăților fundamentale ale omului sau orice scop care nu este în concordanță cu valorile și principiile noastre de Încredere și Transparență”, conform scrisorii. „Credem că acum este momentul să începem un dialog național despre modul în care tehnologia de recunoaștere facială ar trebui să fie utilizată de agențiile de aplicare a legii din țară.”
Amazon a urmat exemplul când a anunțat o moratoriu de un an asupra permisiunii acordate agențiilor de aplicare a legii de a utiliza platforma de recunoaștere facială Rekognition a companiei.
Anunțul a venit la doar câteva zile după decizia IBM.
Una dintre cele mai importante lucrări efectuate cu privire la problema discriminării și tehnologiei de recunoaștere facială a fost un articol din 2018 co-autorat de Joy Buolamwini și Timnit Gebru. Buolamwini este cercetător la MIT Media Lab, iar Gebru este membru al Microsoft Research.
Articolul din 2018 a constatat că „algoritmii de învățare automată pot discrimina pe baza unor clase precum rasa și sexul”, printre altele.
Cazul lui Robert Julian-Borchak Williams este extrem de îngrijorător pentru mulți care trăiesc în Statele Unite, dar este și un indicator al ceea ce se întâmplă în întreaga lume. Utilizarea tehnologiei de recunoaștere facială de către guverne și agenții de aplicare a legii abia începe, și există foarte puțin pentru a preveni utilizarea ei în moduri neetice. Indiferent dacă este vorba despre utilizarea pe scară largă a tehnologiei de recunoaștere facială pentru supraveghere în China sau despre cazul lui Williams, care a fost identificat fals în Statele Unite, tehnologia deschide populația lumii la un set de noi încălcări ale confidențialității și drepturilor omului, care nu au existat anterior.










