Kunstig intelligens
AI Now Institute advarer mot misbruk av emosjonsdeteksjonsprogramvare og andre etiske problemer

AI Now Institute har utgitt en rapport som oppfordrer lovgivere og andre reguleringer til å sette harde grenser for bruk av emosjonsdeteksjonsteknologi, og å forbyte den i tilfeller der den kan brukes til å treffe viktige beslutninger som anssettelse av ansatte eller studenter. I tillegg inneholder rapporten en rekke andre forslag om en rekke emner i AI-området.
AI Now Institute er et forskningsinstitutt basert ved NYU, med misjonen å studere AI sin påvirkning på samfunnet. AI Now utgir en årlig rapport som viser deres funn om tilstanden i AI-forskningen og de etiske implikasjonene av hvordan AI brukes i dag. Som BBC rapporterte, behandlet årets rapport emner som algoritme-diskriminering, mangfold i AI-forskning og arbeidsproblemer.
Affect recognition, det tekniske uttrykket for emosjonsdeteksjonsalgoritmer, er et raskt voksende område innen AI-forskning. De som benytter teknologien til å treffe beslutninger, hevder ofte at systemene kan trekke pålitelige opplysninger om menneskers emosjonelle tilstander ved å analysere mikro-uttrykk, samt andre signaler som tone og kroppsspråk. AI Now-instituttet påpeker at teknologien brukes i en rekke applikasjoner, som å bestemme hvem som skal ansettes, sette forsikringspriser og overvåke om studenter er oppmerksomme i klassen.
Prof. Kate Crawford, medgrunnlegger av AI Now, forklarte at det ofte antas at menneskelige emosjoner kan forutsies nøyaktig med relativt enkle modeller. Crawford sa at noen firmaer baserer utviklingen av sin programvare på Paul Ekman sitt arbeid, en psykolog som hypoteserte at det finnes bare seks grunnleggende typer emosjoner som registreres på ansiktet. Men Crawford påpeker at siden Ekman sitt teori ble introdusert, har studier funnet at det er langt større variasjon i ansiktsuttrykk og at uttrykk kan endre seg over situasjoner og kulturer svært lett.
“På samme tid som disse teknologiene rulleres ut, viser en rekke studier at det ikke finnes noen substansiell bevis for at mennesker har en konsekvent sammenheng mellom den emosjonen du føler og hvordan ditt ansikt ser ut”, sa Crawford til BBC.
Av denne grunn, argumenterer AI Now-instituttet for at mye av affect recognition er basert på ugyldige teorier og tvilsom vitenskap. Derfor bør emosjonsdeteksjonssystemer ikke brukes før mer forskning er gjort, og at “regjeringer bør spesifikt forbys bruke av affect recognition i høyriskede beslutningsprosesser”. AI Now argumenterte for at vi spesielt bør stoppe bruken av teknologien i “sensitive sosiale og politiske sammenhenger”, sammenhenger som inkluderer arbeid, utdanning og politi.
Minst ett AI-utviklingsfirma som spesialiserer seg på affect recognition, Emteq, enig i at det bør være reguleringer som forhindrer misbruk av teknologien. Grunnleggeren av Emteq, Charles Nduka, forklarte til BBC at mens AI-systemer kan nøyaktig gjenkjenne forskjellige ansiktsuttrykk, finnes det ikke en enkel kart over uttrykk til emosjon. Nduka uttrykte bekymring for at reguleringer kan gå for langt og hemme forskning, og påpekte at hvis “ting skal forbys, er det viktig at folk ikke kaster ut barnet med badevannet”.
Som NextWeb rapporterte, anbefalte AI Now også en rekke andre politikker og normer som bør guide AI-industrien fremover.
AI Now understreket behovet for at AI-industrien gjør arbeidsplassene mer mangfoldige og at arbeidere bør garanteres retten til å uttrykke sine bekymringer om invasiv og eksploderende AI. Teknologiarbeidere bør også ha retten til å vite om deres innsats brukes til å konstruere skadelig eller uelektable arbeid.
AI Now foreslo også at lovgivere tar skritt for å kreve informert samtykke for bruk av data fra helse-relatert AI. Utenfor dette, ble det rådet at datavernhet bør tas mer alvorlig og at statene bør arbeide for å designe privatlivslover for biometriske data som dekker både private og offentlige enheter.
Til slutt rådet instituttet at AI-industrien begynner å tenke og handle mer globalt, og forsøke å håndtere de større politiske, sosiale og økologiske konsekvensene av AI. Det ble anbefalt at det bør være en betydelig innsats for å regne med AI sin påvirkning med hensyn til geografisk forflytning og klima, og at regjeringer bør gjøre klimapåvirkningen av AI-industrien offentlig tilgjengelig.












