stub Instytut AI Now ostrzega przed niewłaściwym wykorzystaniem oprogramowania do wykrywania emocji i innymi kwestiami etycznymi – Unite.AI
Kontakt z nami

Etyka

Instytut AI Now ostrzega przed niewłaściwym wykorzystaniem oprogramowania do wykrywania emocji i innymi kwestiami etycznymi

mm
Zaktualizowano on

Instytut AI Now opublikował raport, w którym wzywa ustawodawców i inne organy regulacyjne do ustanowienia twardych ograniczeń w zakresie stosowania technologii wykrywania emocji, zakazując jej w przypadkach, gdy może ona zostać wykorzystana do podejmowania ważnych decyzji, takich jak zatrudnienie pracownika lub akceptacja studenta. Ponadto raport zawierał szereg innych sugestii dotyczących różnych tematów z zakresu sztucznej inteligencji.

Połączenia Instytut AI Now to instytut badawczy z siedzibą na Uniwersytecie Nowojorskim, którego misją jest badanie wpływu sztucznej inteligencji na społeczeństwo. AI Now publikuje coroczny raport przedstawiający swoje ustalenia dotyczące stanu badań nad sztuczną inteligencją i etycznych konsekwencji obecnego wykorzystania sztucznej inteligencji. Jak podało BBCw tegorocznym raporcie poruszono takie tematy, jak dyskryminacja algorytmiczna, brak różnorodności w badaniach nad sztuczną inteligencją i kwestie pracy.

Rozpoznawanie afektu, techniczny termin określający algorytmy wykrywania emocji, to szybko rozwijający się obszar badań nad sztuczną inteligencją. Ci, którzy wykorzystują tę technologię do podejmowania decyzji, często twierdzą, że systemy te mogą uzyskać wiarygodne informacje o stanach emocjonalnych ludzi poprzez analizę mikroekspresji oraz innych wskazówek, takich jak ton głosu i mowa ciała. Instytut AI Now zauważa, że ​​technologia ta jest wykorzystywana w szerokim zakresie zastosowań, takich jak określanie, kogo zatrudnić, ustalanie cen ubezpieczenia i monitorowanie, czy uczniowie uważają na zajęciach.

Prof. Kate Crawford, współzałożycielka AI Now wyjaśniła, że ​​często uważa się, że ludzkie emocje można dokładnie przewidzieć za pomocą stosunkowo prostych modeli. Crawford powiedział, że niektóre firmy opierają rozwój swojego oprogramowania na pracach Paula Ekmana, psychologa, który postawił hipotezę, że istnieje tylko sześć podstawowych typów emocji rejestrujących się na twarzy. Jednak Crawford zauważa, że ​​od czasu wprowadzenia teorii Ekmana badania wykazały, że istnieje znacznie większa zmienność wyrazu twarzy i że wyraz twarzy może bardzo łatwo zmieniać się w różnych sytuacjach i kulturach.

„W tym samym czasie, gdy te technologie są wdrażane, wiele badań pokazuje, że nie ma… żadnych istotnych dowodów na to, że ludzie mają spójny związek między odczuwanymi emocjami a wyglądem swojej twarzy” powiedział Crawford BBC.

Z tego powodu instytut AI Now argumentuje, że znaczna część rozpoznawania afektu opiera się na niewiarygodnych teoriach i wątpliwej nauce. Dlatego też nie należy wdrażać systemów wykrywania emocji, dopóki nie zostaną przeprowadzone dalsze badania i że „rządy powinny w szczególności zakazać stosowania rozpoznawania emocji w procesach podejmowania decyzji o dużej stawce”. AI Now argumentowała, że ​​powinniśmy szczególnie zaprzestać używania tej technologii we „wrażliwych kontekstach społecznych i politycznych”, czyli w kontekstach obejmujących zatrudnienie, edukację i policję.

Co najmniej jedna firma zajmująca się rozwojem sztucznej inteligencji, specjalizująca się w rozpoznawaniu afektów, Emteq, zgodziła się, że powinny istnieć regulacje zapobiegające niewłaściwemu wykorzystaniu tej technologii. Założyciel Emteq, Charles Nduka, wyjaśnił BBC, że choć systemy sztucznej inteligencji potrafią dokładnie rozpoznawać różne wyrazy twarzy, nie istnieje prosta mapa od wyrazu do emocji. Nduka wyraził zaniepokojenie zbyt daleko idącymi regulacjami i tłumieniem badań, zauważając, że jeśli „coś zostanie zakazane, bardzo ważne jest, aby ludzie nie wylewali dziecka z kąpielą”.

Jak podaje NextWeb, AI Now zaleciło także szereg innych zasad i norm, które powinny wyznaczać kierunki rozwoju branży sztucznej inteligencji.

AI Now podkreśliła potrzebę zwiększenia różnorodności miejsc pracy przez przemysł sztucznej inteligencji i stwierdziła, że ​​pracownikom należy zagwarantować prawo do wyrażania swoich obaw dotyczących inwazyjnej i wyzyskującej sztucznej inteligencji. Pracownicy techniczni powinni również mieć prawo wiedzieć, czy ich wysiłki są wykorzystywane do wykonywania szkodliwej lub nieetycznej pracy.

AI Now zasugerowało również, aby prawodawcy podjęli kroki wymagające świadomej zgody na wykorzystanie jakichkolwiek danych pochodzących z sztucznej inteligencji związanej ze zdrowiem. Poza tym zalecono poważniejsze potraktowanie prywatności danych i podjęcie przez państwa prac nad opracowaniem przepisów dotyczących prywatności danych biometrycznych obejmujących zarówno podmioty prywatne, jak i publiczne.

Na koniec instytut doradził, aby branża sztucznej inteligencji zaczęła myśleć i działać bardziej globalnie, próbując zająć się szerszymi konsekwencjami politycznymi, społecznymi i ekologicznymi sztucznej inteligencji. Zalecono podjęcie znacznych wysiłków w celu uwzględnienia wpływu sztucznej inteligencji na przemieszczenia geograficzne i klimat oraz aby rządy udostępniły publicznie informacje na temat wpływu branży sztucznej inteligencji na klimat.