Connect with us

Forskere finner at AI-modeller kan påvirke mennesker til å ta ueiske avgjørelser

Etikk

Forskere finner at AI-modeller kan påvirke mennesker til å ta ueiske avgjørelser

mm

Et team av forskere har nylig undersøkt AI-s muligheter til å korrumpere mennesker og påvirke dem til å ta ueiske avgjørelser. Forskerne undersøkte hvordan interaksjoner med systemer basert på OpenAI-s GPT-2-modell kunne potensielt påvirke mennesker til å ta ueiske avgjørelser, selv når de var klar over at kilden til rådet var et AI-system.

AI-systemer blir mer og mer vanlige, og deres innflytelse øker stadig. AI-systemer påvirker menneskers avgjørelser, og brukes til alt fra å anbefale filmer til å anbefale romantiske partnere. Gitt hvor mye innflytelse AI har på menneskers liv, er det viktig å vurdere hvordan AI kan påvirke mennesker til å ta ueiske avgjørelser og bryte moralske retningslinjer. Dette er særlig viktig gitt at AI-modellene stadig blir mer avanserte.

Sosialforskere og dataforskere har blitt stadig mer bekymret for at AI-modeller kan brukes til å spre skadelig desinformasjon og misinformasjon. En nylig publisert artikkel skrevet av forskere fra Middlebury Institute of International Studies’ Center on Terrorism, Extremism, and Counterterrorism (CTEC) fant at OpenAI-s GPT-3-modell kunne brukes til å generere innflytelsesrik tekst som kunne radikalisere mennesker og drive dem mot “voldelige høyre-ekstremistiske ideologier og atferd”.

En studie gjennomført av et team av forskere fra Max Planck Institute, University of Amsterdam, University of Cologne og Otto Beisheim School of Management satte ut til å bestemme hvor mye innflytelse en AI kan ha på menneskers avgjørelser når det gjelder ueiske valg. For å utforske hvordan en AI kunne “korrumpere” en person, brukte forskerne et system basert på OpenAI-s GPT-2-modell. Ifølge VentureBeat, trente forfatterne av artikkelen en GPT2-basert modell til å generere både “uhæderlig-promoverende” og “ærlig-promoverende” råd. Dataene ble trent på bidrag fra 400 forskjellige deltakere, og etterpå rekrutterte forskningsteamet over 1500 mennesker til å engasjere seg med råd-utdelende AI-modeller.

Studiedeltakerne ble bedt om å motta råd fra modellen og deretter utføre en oppgave designet til å fange enten uhæderlig eller ærlig atferd. Studiedeltakerne ble gruppert med en partner, og i disse parene på to spilte de et terningkastspill. Den første deltakeren kastet en terning og rapporterte resultatet av terningkastet. Den andre deltakeren fikk resultatet av den første deltakerens terningkast, og deretter kastet de en terning selv. Den andre deltakeren kastet terningen i hemmelighet og var alene ansvarlig for å rapportere sitt eget resultat, og de fikk mulighet til å lyve om resultatet av terningkastet. Hvis terningene kastet av begge deltakerne matchet, fikk de to deltakerne betalt. Deltakerne fikk også betalt mer hvis deres matchende kast var høyere. Hvis de rapporterte verdiene ikke matchet, fikk deltakerne ikke betalt.

Deltakerne i studien ble tilfeldig tildelt til en av to forskjellige grupper. En gruppe fikk mulighet til å lese ærlig-promoverende råd, mens den andre gruppen leste uhæderlig-promoverende råd. Råd-biterne ble skrevet av både mennesker og AI-er. Deltakerne ble også delt etter deres nivå av kunnskap om kilden til rådet. Det var en 50-50 sjanse for at en gitt deltaker ville bli informert om kilden til rådet, så halvparten av deltakerne i hver gruppe visste at kilden til rådet var enten en AI eller et menneske, mens den andre halvparten ble holdt i mørket. Den andre gruppen av mennesker hadde imidlertid mulighet til å tjene bonus betaling for å korrekt gjette kilden til rådet.

Forskningen avdekket at når AI-generert råd stemmer overens med en persons preferanser, vil de følge rådet, selv når de vet at rådet ble generert av et AI-system. Ifølge forskerne var det ofte diskrepanser mellom uttalt preferanser og faktisk atferd, og det er viktig å vurdere hvordan algoritmer kan påvirke menneskers atferd.

Forskingsteamet forklarte at deres studie demonstrerer behovet for å teste hvordan en AI kan påvirke en persons handlinger når det gjelder å vurdere hvordan man skal etisk utplassere en AI-modell. Videre advarer de mot at AI-etikere og forskere bør forberede seg på muligheten for at AI kan brukes av dårlige aktører til å korrumpere andre. Som forskningsteamet skrev:

“AI kan være en kraft for godt hvis det klarer å overtale mennesker til å handle mer etisk. Likevel viser våre resultater at AI-råd ikke øker ærlighet. AI-rådgivere kan tjene som syndebukker som man kan skyve (noen av) moralsk skyld for uhæderlighet over på. Og … i sammenheng med råd-til-tak, er det ikke nok å være åpen om algoritmens tilstedeværelse for å lette dens potensielle skade.”

Blogger og programmerer med spesialområder i Machine Learning og Deep Learning emner. Daniel håper å hjelpe andre med å bruke kraften av AI for sosialt godt.