stub AI Now Institute advarer om misbruk av programvare for følelsesdeteksjon og andre etiske problemer - Unite.AI
Kontakt med oss

etikk

AI Now Institute advarer om misbruk av programvare for følelsesregistrering og andre etiske problemer

mm
oppdatert on

AI Now Institute har gitt ut en rapport som oppfordrer lovgivere og andre reguleringsorganer til å sette harde grenser for bruken av emosjonsdeteksjonsteknologi, og forby den i tilfeller der den kan brukes til å ta viktige beslutninger som ansettelse av ansatte eller studentaksept. I tillegg inneholdt rapporten en rekke andre forslag angående en rekke emner innen AI-feltet.

De AI Now Institute er et forskningsinstitutt basert ved NYU, som har som oppgave å studere AIs innvirkning på samfunnet. AI lanserer nå en årlig rapport som viser funnene deres angående tilstanden til AI-forskning og de etiske implikasjonene av hvordan AI for tiden brukes. Som BBC rapporterte, tok årets rapport for seg temaer som algoritmisk diskriminering, mangel på mangfold i AI-forskning og arbeidsspørsmål.

Affektgjenkjenning, den tekniske termen for følelsesdeteksjonsalgoritmer, er et raskt voksende område innen AI-forskning. De som bruker teknologien for å ta beslutninger hevder ofte at systemene kan trekke pålitelig informasjon om folks følelsesmessige tilstander ved å analysere mikrouttrykk, sammen med andre signaler som tonefall og kroppsspråk. AI Now-instituttet bemerker at teknologien brukes på tvers av et bredt spekter av applikasjoner, som å bestemme hvem som skal ansettes, sette forsikringspriser og overvåke om studentene følger med i klassen.

Prof. Kate Crawford, medgründer av AI Now forklarte at man ofte tror at menneskelige følelser kan forutsies nøyaktig med relativt enkle modeller. Crawford sa at noen firmaer baserer utviklingen av programvaren sin på Paul Ekmans arbeid, en psykolog som antok at det bare er seks grunnleggende typer følelser som registrerer seg i ansiktet. Imidlertid bemerker Crawford at siden Ekmans teori ble introdusert har studier funnet at det er langt større variasjon i ansiktsuttrykk og at uttrykk kan endre seg på tvers av situasjoner og kulturer veldig lett.

"Samtidig som disse teknologiene rulles ut, viser et stort antall studier at det er... ingen vesentlige bevis for at folk har dette konsistente forholdet mellom følelsene du føler og måten ansiktet ditt ser ut på." sa Crawford til BBC.

Av denne grunn argumenterer AI Now-instituttet for at mye av affektgjenkjenning er basert på upålitelige teorier og tvilsom vitenskap. Derfor bør ikke emosjonsdeteksjonssystemer distribueres før mer forskning er gjort, og at "myndighetene spesifikt bør forby bruken av affektgjenkjenning i beslutningsprosesser med høy innsats". AI Now argumenterte for at vi spesielt burde slutte å bruke teknologien i «sensitive sosiale og politiske sammenhenger», kontekster som inkluderer sysselsetting, utdanning og politiarbeid.

Minst ett AI-utviklingsfirma som spesialiserer seg på affektgjenkjenning, Emteq, var enig i at det burde være regulering som forhindrer misbruk av teknologien. Grunnleggeren av Emteq, Charles Nduka, forklarte til BBC at selv om AI-systemer nøyaktig kan gjenkjenne forskjellige ansiktsuttrykk, er det ikke et enkelt kart fra uttrykk til følelser. Nduka uttrykte bekymring for at reguleringen ble tatt for langt og kvelte forskningen, og la merke til at hvis "ting skal bli forbudt, er det veldig viktig at folk ikke kaster ut babyen med badevannet".

Som NextWeb rapporterer, AI Now anbefalte også en rekke andre retningslinjer og normer som bør lede AI-industrien fremover.

AI nå fremhevet behovet for AI-industrien for å gjøre arbeidsplassene mer mangfoldige og uttalte at arbeidere bør sikres en rett til å uttrykke sine bekymringer om invasiv og utnyttende AI. Tekniske arbeidere bør også ha rett til å vite om deres innsats blir brukt til å konstruere skadelig eller uetisk arbeid.

AI Now foreslo også at lovgivere tar skritt for å kreve informert samtykke for bruk av data som stammer fra helserelatert AI. Utover dette ble det anbefalt at personvernet tas mer alvorlig og at statene bør arbeide for å utforme personvernlover for biometriske data som dekker både private og offentlige enheter.

Til slutt ga instituttet beskjed om at AI-industrien begynte å tenke og handle mer globalt, og prøve å ta tak i de større politiske, samfunnsmessige og økologiske konsekvensene av AI. Det ble anbefalt at det gjøres en betydelig innsats for å redegjøre for AIs påvirkning angående geografisk forskyvning og klima, og at myndigheter bør gjøre klimapåvirkningen til AI-industrien offentlig tilgjengelig.

Blogger og programmerer med spesialiteter innen Maskinlæring og Dyp læring emner. Daniel håper å hjelpe andre å bruke kraften til AI til sosialt gode.