Etikk
Etiske prinsipper for AI gjennomgår meta-analyse, menneskerettigheter understrekes

I 2019 var det mer fokus på etikk for AI enn noen gang tidligere. Likevel virket mye av denne diskusjonen uklar, uten noen kodifisert tilnærming. I stedet lagde ulike selskaper sine egne rammer og politikker når det gjaldt etikk for AI. Å ha en enighet om etiske spørsmål knyttet til AI er viktig fordi det hjelper beslutningstakere å lage og justere politikker, og det informerer også arbeidet som utføres av forskere og akademikere. Utenfor dette må AI-selskaper vite hvor etiske grenser er hvis de håper å unngå ueiske AI-implémenteringer. For å skape et bedre bilde av trendene i etikk for AI, som VentureBeats rapporterer, utførte Berkman Klein Center ved Harvard University en meta-analyse av de ulike eksisterende etiske prinsippene og rammer for AI.
Ifølge forfatterne av analysen, ønsket forskerne å sammenligne prinsippene side om side for å se etter overlap og divergens. Jessica Fjeld, assisterende direktør for Harvard Law School Cyberlaw Clinic, forklarte at forskningsteamet ønsket å “avdekke den skjulte momentum i en splittet, global samtale om fremtiden for AI, resulterte i denne hvitboken og den tilknyttede datavisualiseringen.”
Under analysen undersøkte teamet 36 ulike AI-prinsippdokumenter som opprinnelig kom fra hele verden og kom fra mange ulike organisasjonstyper. Resultatene av forskningen viste at det var åtte temaer som fortsatt dukket opp over de mange dokumentene.
Personvern og ansvar var to av de mest vanlige etiske temaene, likeså var AI-sikkerhet/sikkerhet. Gjennomsiktighet/forklarbarhet var også et vanlig nevnt mål, med mange forsøk på å gjøre algoritmer mer forklarbare over løpet av 2019. Retferdighet/ikke-diskriminering var et annet etisk fokusområde, som reflekterte voksende bekymringer om dataforvrengning. Å sikre menneskelig kontroll over teknologi, og ikke overlate avgjørelsesmyndighet til AI, ble også sterkt nevnt. Profesjonell ansvar var det syvende vanlige temaet funnet av forskerne. Til slutt fant forskerne kontinuerlig omtale av å fremme menneskelige verdier i AI-etikkdokumentasjonen de undersøkte.
Forskingsteamet ga kvalitative og kvantitative nedbrytninger av hvordan disse temaene manifesterte seg innen AI-etikkdokumentasjon i deres papir og i en tilhørende kart. Kartet viser hvor hvert av temaene ble nevnt.
Forskingsteamet noterte at mye av AI-etikkdiskusjonen dreide seg om bekymring for menneskelige verdier og rettigheter. Som forskningspapiret noterer:
“64% av våre dokumenter inneholdt en referanse til menneskerettigheter, og fem dokumenter [14%] tok internasjonale menneskerettigheter som en ramme for deres totale innsats.”
Referanser til menneskerettigheter og verdier var mer vanlige i dokumenter produsert av private sektorgrupper og sivilsamfunnsgrupper. Dette indikerer at AI-private sektorselskaper ikke bare er opptatt av å tjene penger, men også å produsere AI på en etisk måte. I mellomtiden ser det ut til at regjeringer er mindre opptatt eller klar over AI-etikk totalt, med mindre enn halvparten av AI-relaterte dokumenter som opprinnelig kommer fra regjeringer som omhandler seg selv med AI-etikk.
Forskerne noterte også at hvis dokumentene de undersøkte var mer nylige, var de mer sannsynlig å omhandle alle de åtte mest fremtredende temaene i stedet for bare noen få. Dette faktum antyder at ideene bak hva som utgjør etisk AI-bruk begynner å samles blant de som leder diskusjonen om AI-etikk. Til slutt påpeker forskerne at suksessen til disse prinsippene i å guide utviklingen av AI vil avhenge av hvor godt de er integrert i AI-utviklerfellesskapet som helhet. Forskerne påpeker i papiret:
“Merover er prinsipper en startpunkt for styring, ikke en slutt. På egen hånd er en samling av prinsipper usannsynlig å være mer enn svakt overbevisende. Dens påvirkning er sannsynlig å avhenge av hvordan den er innlemt i et større styringssystem, inkludert for eksempel relevante politikker (f.eks. AI-nasjonale planer), lover, reguleringer, men også profesjonelle praksiser og daglige rutiner.”












