Etyka
Koalicja Etyki AI Potępia Algoritmy Przewidywania Przestępczości

W poniedziałek, grupa badaczy AI, etyków, naukowców danych i naukowców społecznych opublikowała post na blogu argumentując, że badacze akademicki powinni zaprzestać prowadzenia badań, które mają na celu przewidywanie prawdopodobieństwa, że osoba popełni czyn przestępczy, w oparciu o zmienne takie jak statystyki przestępczości i skany twarzy.
Post na blogu został napisany przez Koalicję dla Krytycznej Technologii, która argumentowała, że wykorzystywanie takich algorytmów utrwala cykl uprzedzeń wobec mniejszości. Wiele badań nad skutecznością rozpoznawania twarzy i algorytmów policyjnych wykazuje, że algorytmy te często są bardziej surowe wobec mniejszości, co autorzy postu na blogu argumentują, jest spowodowane nierównościami w systemie sprawiedliwości. System sprawiedliwości wytwarza tendencyjne dane, a zatem algorytmy szkolone na tych danych propagują te uprzedzenia, argumentuje Koalicja dla Krytycznej Technologii. Koalicja twierdzi, że sama koncepcja “przestępczości” często opiera się na rasie, a zatem badania nad tymi technologiami zakładają neutralność algorytmów, podczas gdy w rzeczywistości nie ma takiej neutralności.
Jak donosi The Verge, duży wydawca prac akademickich, Springer, planował opublikowanie studium zatytułowanego “Głęboki model sieci neuronowej do przewidywania przestępczości przy użyciu przetwarzania obrazu”. Autorzy studium twierdzili, że opracowali algorytm rozpoznawania twarzy, który mógł przewidywać szansę, że osoba popełni przestępstwo bez uprzedzeń i z dokładnością około 80%. Jednak Koalicja dla Krytycznej Technologii napisała list otwarty do Springer, nakłaniając wydawcę do powstrzymania się od publikacji studium lub przyszłych badań dotyczących podobnych tematów.
“Rozpowszechnianie tej pracy przez dużego wydawcę jak Springer stanowiłoby znaczący krok w kierunku legitymizacji i zastosowania wielokrotnie obalonej, szkodliwej pracy w świecie rzeczywistym”, argumentuje koalicja.
Springer oświadczył, że nie opublikuje pracy, jak podaje MIT Technology Review. Springer stwierdził, że praca została złożona na nadchodzącą konferencję, ale po procesie recenzji praca została odrzucona do publikacji.
Koalicja dla Krytycznej Technologii twierdzi, że praca dotycząca przewidywania przestępczości jest tylko jednym przypadkiem szerszego, szkodliwego trendu, w którym inżynierowie AI i badacze próbują przewidywać zachowania na podstawie danych składających się z wrażliwych, społecznie uwarunkowanych zmiennych. Koalicja twierdzi również, że wiele badań opiera się na naukowo wątpliwych ideach i teoriach, które nie są poparte dostępnymi dowodami z biologii i psychologii. Jako przykład, badacze z Princeton i Google opublikowali artykuł ostrzegający, że algorytmy twierdzące, że mogą przewidywać przestępczość na podstawie cech twarzy, opierają się na dyskredytowanych i niebezpiecznych pseudonaukach, takich jak fizjonomia. Badacze ostrzegali przed tym, aby pozwolić, aby machine learning został wykorzystany do ożywienia dawno obalonych teorii, które służą do wspierania rasistowskich systemów.
Ostatni impet ruchu Black Lives Matter skłonił wiele firm wykorzystujących algorytmy rozpoznawania twarzy do ponownej oceny ich użycia tych systemów. Badania wykazały, że te algorytmy są często tendencyjne, oparte na nieprzedstawicielskich, tendencyjnych danych szkoleniowych.
Sygnatariusze listu, oprócz argumentowania, że badacze AI powinni zrezygnować z badań nad algorytmami przewidywania przestępczości, zalecili również, aby badacze ponownie ocenili, w jaki sposób mierzy się sukces modeli AI. Członkowie koalicji zalecają, aby wpływ społeczny algorytmów był miarą sukcesu, obok miar takich jak precyzja, recall i dokładność. Jak piszą autorzy pracy:
“Jeśli machine learning ma przynieść ‘dobre społeczne’ ogłoszone w wnioskach grantowych i komunikatach prasowych, badacze w tej dziedzinie muszą aktywnie reflektować struktury władzy (i towarzyszące im uciski), które umożliwiają ich pracę.”










