Connect with us

Sztuczna inteligencja

Stany Zjednoczone doświadczają pierwszego przypadku niesłusznego aresztowania spowodowanego złym algorytmem

mm

W zeszłym tygodniu, The New York Times reported o pierwszym przypadku niesłusznego aresztowania spowodowanego złym algorytmem w Stanach Zjednoczonych. Incydent miał miejsce w Detroit, kiedy Robert Julian-Borchak Williams, czarnoskóry mężczyzna, został aresztowany po tym, jak został błędnie dopasowany do nagrania z kamery bezpieczeństwa, na którym widać osobę popełniającą kradzież.

Amerykańska Unia Wolności Cywilnych (ACLU) szybko podjęła działania i złożyła skargę przeciwko policji w Detroit. Po tym, jak ACLU naciskała na umorzenie sprawy Williamsa i usunięcie jego danych z bazy danych policyjnych w Detroit, prokuratorzy podjęli te działania.

Ten rozwój jest pierwszym tego rodzaju w Stanach Zjednoczonych i podkreśla poważne obawy, które zaczynają pojawiać się na całym świecie w związku z użyciem technologii rozpoznawania twarzy przez państwo.

Problemy z systemami rozpoznawania twarzy

Systemy rozpoznawania twarzy były przedmiotem kontrowersji od dawna, coraz częściej stając się punktem debaty wśród tych, którzy są zaniepokojeni prywatnością i fałszywymi oskarżeniami.

W związku z niedawnymi protestami w całym kraju i na całym świecie przeciwko brutalności policyjnej i dyskryminacji, ta kontrola tylko się zwiększyła.

Te algorytmy przyniosły nowy aspekt do egzekwowania prawa i są pełne błędów.

Fałszywe oskarżenie

Napad, o który Williams został fałszywie oskarżony, miał miejsce w październiku 2018 roku. Nagranie z kamery bezpieczeństwa zostało następnie przesłane do bazy danych rozpoznawania twarzy stanu Michigan w marcu 2019 roku.

Zdjęcie Williamsa trafiło do linii zdjęciowej, gdzie strażnik zidentyfikował Williamsa jako osobę, która popełniła przestępstwo.

Według ACLU, strażnik nigdy nie był naocznym świadkiem napadu.

W styczniu Williams otrzymał telefon od wydziału policji w Detroit, informujący go o jego aresztowaniu. Kiedy zignorował telefon, uważając go za żart, policja przyjechała do jego domu zaledwie godzinę później.

Williams został następnie zabrany do centrum detencyjnego, gdzie zostały pobrane jego odciski palców, zdjęcie i DNA, a następnie został przetrzymany całą noc w komisariacie.

Co nastąpiło, było przesłuchaniem za przestępstwo, którego nie popełnił, wszystko za sprawą wadliwego systemu rozpoznawania.

Sprawa Williamsa została umorzona dwa tygodnie po jego aresztowaniu, ale w szerszym zakresie, ten incydent oznaczał znacznie więcej i ma ogromne implikacje dla prywatności. Wraz ze wzrastającym użyciem oprogramowania do rozpoznawania twarzy przez rządy i organy ścigania, ten przypadek może być początkiem poważnych naruszeń, które już mają miejsce w krajach takich jak Chiny, ale jeszcze nie dotarły do Stanów Zjednoczonych, przynajmniej do publicznej wiadomości.

Jednym z takich naruszeń jest to, że próbka DNA Williamsa, zdjęcie i odciski palców są teraz wszystkie w bazie danych w wyniku technologii. Nie tylko to, ale także jego aresztowanie jest w rejestrze.

Prywatne firmy i organy ścigania

Przypadek Williamsa ma miejsce, gdy takie firmy jak IBM, Microsoft i Amazon zaprzestały dostarczania swojej technologii rozpoznawania twarzy organom ścigania.

Pierwszą dużą firmą, która to zrobiła, był IBM, kiedy CEO Arvind Krishna wysłał list do Kongresu o nieofferowaniu ogólnego rozpoznawania twarzy lub oprogramowania analitycznego. Ponadto, firma wstrzymała badania i rozwój tej technologii.

„IBM stanowczo sprzeciwia się i nie będzie tolerować użycia jakiejkolwiek technologii rozpoznawania twarzy, w tym technologii oferowanej przez innych dostawców, do masowej inwigilacji, profilowania rasowego, naruszeń podstawowych praw i wolności człowieka lub jakiegokolwiek celu, który nie jest zgodny z naszymi wartościami i Zasadami Zaufania i Przejrzystości”, według listu. „Uważamy, że teraz jest czas, aby rozpocząć narodowy dialog na temat tego, czy i jak technologia rozpoznawania twarzy powinna być wykorzystywana przez krajowe organy ścigania.”

Amazon poszedł za przykładem IBM, gdy ogłosił roczny moratorium na pozwalanie organom ścigania na korzystanie z platformy rozpoznawania twarzy Rekognition.

Ogłoszenie nastąpiło zaledwie kilka dni po decyzji IBM.

Jedną z najważniejszych prac dotyczących kwestii dyskryminacji i technologii rozpoznawania twarzy była praca z 2018 roku współautorem której byli Joy Buolamwini i Timnit Gebru. Buolamwini jest badaczem w MIT Media Lab, a Gebru jest członkiem Microsoft Research.

Praca z 2018 roku wykazała, że „algorytmy uczenia maszynowego mogą dyskryminować na podstawie klas takich jak rasa i płeć”, wśród innych rzeczy.

Przypadek Roberta Juliana-Borchaka Williamsa jest niezwykle niepokojący dla wielu mieszkańców Stanów Zjednoczonych, ale jest to również wskaźnik tego, co dzieje się na całym świecie. Użycie technologii rozpoznawania twarzy przez rządy i organy ścigania dopiero zaczyna się, a jest bardzo mało mechanizmów, które mogą zapobiec jej niewłaściwemu użyciu. Niezależnie od tego, czy jest to powszechne użycie technologii rozpoznawania twarzy w Chinach do celów inwigilacji, czy przypadek Williamsa, który został fałszywie zidentyfikowany w Stanach Zjednoczonych, ta technologia otwiera światową populację na nowy zestaw naruszeń prywatności i praw człowieka, które wcześniej nie istniały.

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją, który bada najnowsze rozwoje w dziedzinie sztucznej inteligencji. Współpracował z licznymi startupami i wydawnictwami związanymi z sztuczną inteligencją na całym świecie.