Etyka
Koalicja Etyczna AI potępia algorytmy przewidywania przestępczości

We wtorek wielu badaczy sztucznej inteligencji, etyków, analityków danych i socjologów opublikował post na blogu argumentując, że badacze akademiccy powinni zaprzestać prowadzenia badań mających na celu przewidzenie prawdopodobieństwa popełnienia przez daną osobę czynu przestępczego na podstawie zmiennych takich jak statystyki przestępczości i skany twarzy.
Autorem wpisu na blogu jest Koalicja na rzecz Technologii Krytycznych, która argumentowała, że wykorzystanie takich algorytmów utrwala cykl uprzedzeń wobec mniejszości. Wiele badań nad skutecznością algorytmów rozpoznawania twarzy i predykcyjnych działań policji wykazało, że algorytmy te mają tendencję do surowszego oceniania mniejszości, co, jak twierdzą autorzy wpisu na blogu, wynika z nierówności w systemie wymiaru sprawiedliwości w sprawach karnych. Wymiar sprawiedliwości generuje stronnicze dane, dlatego algorytmy wytrenowane na tych danych propagują te błędy – argumentuje Coalition for Critical Technology. Koalicja argumentuje, że samo pojęcie „przestępczości” często opiera się na rasie, dlatego badania nad tymi technologiami zakładają neutralność algorytmów, podczas gdy w rzeczywistości takiej neutralności nie ma.
Jak donosi The Verge, duży wydawca prac akademickich, firma Springer, planowała opublikować badanie zatytułowane „A Deep Neural Network Model to Predict Criminality using Image Processing”. Autorzy badania twierdzili, że opracowali algorytm rozpoznawania twarzy, który jest w stanie przewidzieć ryzyko, że dana osoba popełni przestępstwo bez uprzedzeń i z około 80% dokładnością. Jednak Koalicja na rzecz Technologii Krytycznych napisała list otwarty do Springera, wzywając wydawcę do powstrzymania się od publikowania badania lub przyszłych badań obejmujących podobne badania.
„Rozpowszechnienie tej pracy przez dużego wydawcę, takiego jak Springer, stanowiłoby znaczący krok w kierunku legitymizacji i zastosowania w prawdziwym świecie wielokrotnie obalanych, społecznie szkodliwych badań” – argumentuje koalicja.
Springer oświadczył, że nie będzie publikować gazety, jak podaje MIT Technology Review. Springer stwierdził, że artykuł został złożony na nadchodzącą konferencję, ale po procesie recenzji artykuł został odrzucony do publikacji.
Organizacja Coalition for Critical Technology twierdzi, że dokument dotyczący przewidywania przestępczości to tylko pojedynczy przykład szerszego, szkodliwego trendu, w ramach którego inżynierowie i badacze sztucznej inteligencji próbują przewidzieć zachowanie na podstawie danych składających się z wrażliwych, skonstruowanych społecznie zmiennych. Koalicja argumentuje również, że znaczna część badań opiera się na wątpliwych z naukowego punktu widzenia ideach i teoriach, które nie są poparte dostępnymi dowodami z biologii i psychologii. Jako przykład podają badacze z Princeton i Google opublikował artykuł ostrzeżenie, że algorytmy twierdzące, że są w stanie przewidzieć przestępczość na podstawie rysów twarzy, opierają się na zdyskredytowanych i niebezpiecznych pseudonaukach, takich jak fizjonomia. Naukowcy ostrzegali, aby nie pozwalać na wykorzystywanie uczenia maszynowego do ożywiania dawno obalonych teorii wykorzystywanych do wspierania systemów rasistowskich.
Niedawny rozwój ruchu Black Lives Matter skłonił wiele firm korzystających z algorytmów rozpoznawania twarzy do ponownej oceny sposobu korzystania z tych systemów. Badania wykazały, że algorytmy te są często stronnicze i opierają się na niereprezentatywnych, stronniczych danych szkoleniowych.
Sygnatariusze listu oprócz argumentowania, że badacze sztucznej inteligencji powinni zrezygnować z badań nad algorytmami przewidywania przestępczości, zalecili także badaczom ponowną ocenę sposobu oceny powodzenia modeli sztucznej inteligencji. Członkowie koalicji zalecają, aby wpływ algorytmów na społeczeństwo był miarą sukcesu, oprócz takich wskaźników, jak precyzja, zapamiętywanie i dokładność. Jak piszą autorzy artykułu:
„Jeśli uczenie maszynowe ma przynieść „dobro społeczne” reklamowane we wnioskach o granty i komunikatach prasowych, badacze zajmujący się tą przestrzenią muszą aktywnie zastanowić się nad strukturami władzy (i towarzyszącymi im uciskami), które umożliwiają ich pracę”.