Sztuczna inteligencja
Instytut AI Now ostrzega przed nadużyciem oprogramowania do wykrywania emocji i innych kwestii etycznych

Instytut AI Now opublikował raport, w którym apeluje do ustawodawców i innych organów regulacyjnych o ustalenie surowych limitów dla stosowania technologii wykrywania emocji, zakazując jej w przypadkach, w których może być używana do podejmowania ważnych decyzji, takich jak zatrudnianie pracowników lub przyjmowanie studentów. Ponadto, raport zawierał szereg innych sugestii dotyczących różnych tematów w dziedzinie sztucznej inteligencji.
Instytut AI Now jest instytutem badawczym z siedzibą w NYU, którego misją jest badanie wpływu sztucznej inteligencji na społeczeństwo. AI Now co roku publikuje raport, w którym przedstawia swoje ustalenia dotyczące stanu badań nad sztuczną inteligencją i etycznych implikacji jej stosowania. Jak donosi BBC, tegoroczny raport poruszał tematy takie jak dyskryminacja algorytmiczna, brak różnorodności w badaniach nad sztuczną inteligencją oraz problemy związane z pracą.
Rozpoznawanie emocji, czyli techniczna nazwa algorytmów wykrywania emocji, jest szybko rozwijającym się obszarem badań nad sztuczną inteligencją. Ci, którzy stosują tę technologię do podejmowania decyzji, często twierdzą, że systemy te mogą dostarczyć wiarygodnych informacji o stanach emocjonalnych ludzi, analizując mikroekspresje, a także inne sygnały, takie jak ton głosu i język ciała. Instytut AI Now zauważa, że technologia ta jest stosowana w szerokim zakresie aplikacji, takich jak określanie, kogo zatrudnić, ustalanie cen ubezpieczeń oraz monitorowanie, czy studenci są uwagi w klasie.
Prof. Kate Crawford, współzałożycielka AI Now, wyjaśniła, że często uważa się, że ludzkie emocje można dokładnie przewidzieć za pomocą dość prostych modeli. Crawford powiedziała, że niektóre firmy opierają rozwój swoich oprogramowań na pracy Paula Ekmana, psychologa, który stwierdził, że istnieje tylko sześć podstawowych typów emocji, które rejestrują się na twarzy. Jednak Crawford zauważa, że od czasu wprowadzenia teorii Ekmana badania wykazały, że istnieje znacznie większa zmienność w wyrażaniu emocji na twarzy i że wyrażanie emocji może się zmieniać w zależności od sytuacji i kultury.
“Jednocześnie, gdy te technologie są wdrażane, wiele badań pokazuje, że nie ma… żadnych istotnych dowodów na to, że ludzie mają taką samą relację między emocjami, które odczuwają, a tym, jak wygląda ich twarz”, powiedziała Crawford do BBC.
Z tego powodu instytut AI Now twierdzi, że wiele z rozpoznawania emocji opiera się na niewiarygodnych teoriach i wątpliwej nauce. Dlatego systemy wykrywania emocji nie powinny być wdrażane, dopóki nie zostaną przeprowadzone dalsze badania, a “rządy powinny wyraźnie zabronić stosowania rozpoznawania emocji w procesach podejmowania decyzji o wysokich stawkach”. AI Now argumentuje, że powinniśmy szczególnie przestać używać tej technologii w “wrażliwych kontekstach społecznych i politycznych”, takich jak zatrudnienie, edukacja i policja.
Co najmniej jedna firma zajmująca się rozwojem sztucznej inteligencji, specjalizująca się w rozpoznawaniu emocji, Emteq, zgodziła się, że powinna być uregulowana, aby zapobiec nadużyciom tej technologii. Założyciel Emteq, Charles Nduka, powiedział do BBC, że chociaż systemy sztucznej inteligencji mogą dokładnie rozpoznać różne wyrażenia twarzy, nie ma prostego odwzorowania od wyrażenia do emocji. Nduka wyraził obawę, że regulacje mogą być zbyt surowe i zahamować badania, zauważając, że jeśli “coś ma być zabronione, bardzo ważne jest, aby nie wyrzucić dziecka z kąpielą”.
Jak donosi NextWeb, AI Now również zalecił szereg innych polityk i norm, które powinny kierować przemysłem sztucznej inteligencji w przyszłości.
AI Now podkreślił potrzebę zwiększenia różnorodności w miejscach pracy w przemyśle sztucznej inteligencji i stwierdził, że pracownicy powinni mieć gwarantowane prawo do wyrażania swoich obaw dotyczących inwazyjnej i wyzyskującej sztucznej inteligencji. Pracownicy techniczni powinni również mieć prawo wiedzieć, czy ich wysiłki są wykorzystywane do tworzenia szkodliwej lub nieetycznej pracy.
AI Now również sugerował, że ustawodawcy powinni podjąć kroki w celu wymagania świadomej zgody na używanie danych pochodzących z oprogramowania zdrowotnego sztucznej inteligencji. Ponadto, zalecono, aby prawa do prywatności były traktowane poważniej i aby państwa pracowały nad projektowaniem praw dotyczących prywatności danych biometrycznych, obejmujących zarówno podmioty prywatne, jak i publiczne.
Wreszcie, instytut zalecił, aby przemysł sztucznej inteligencji zaczął myśleć i działać bardziej globalnie, starając się rozwiązać większe konsekwencje polityczne, społeczne i ekologiczne sztucznej inteligencji. Zalecono, aby podjęto znaczące wysiłki, aby uwzględnić wpływ sztucznej inteligencji na przesiedlenia geograficzne i klimat, oraz aby rządy uczyniły wpływ przemysłu sztucznej inteligencji na klimat publicznie dostępnym.












