stub Forskare finner att AI-modeller kan påverka människor att fatta oetiska beslut - Unite.AI
Anslut dig till vårt nätverk!

Etik

Forskare finner att AI-modeller kan påverka människor att fatta oetiska beslut

mm
Uppdaterad on

Ett team av forskare har nyligen undersökte AI:s potential att korrumpera människor och påverka dem att fatta oetiska beslut. Forskarna undersökte hur interaktioner med system baserade på OpenAI:s GPT-2-modell potentiellt kan påverka människor att fatta oetiska beslut även när de är medvetna om att källan till råden var ett AI-system.

AI-system blir mer allmänt förekommande hela tiden, och deras inflytande blir allt bredare. AI-system påverkar människors beslut och används för allt från att rekommendera filmer till att rekommendera romantiska partners. Med tanke på hur mycket inflytande AI har på människors liv är det viktigt att överväga hur AI kan påverka människor att fatta oetiska beslut och bryta moraliska riktlinjer. Detta gäller särskilt med tanke på att AI-modeller ständigt blir mer sofistikerade.

Samhällsvetare och datavetare har blivit allt mer oroade över att AI-modeller kan användas för att sprida skadlig desinformation och desinformation. A nyligen papper publicerad av forskare från Middlebury Institute of International Studies' Center on Terrorism, Extremism, and Counterterrorism (CTEC) fann att OpenAI:s GPT-3-modell kunde användas för att generera inflytelserik text som kan radikalisera människor och driva dem mot "våldsamma extremhögerextremister". ideologier och beteenden.”

En studie gjord av ett team av forskare från Max Planck Institute, University of Amsterdam, University of Cologne och Otto Beisheim School of Management syftade till att fastställa hur mycket inflytande en AI kan ha på människors beslut när det gäller oetiskt val. För att utforska hur en AI kan "korrumpera" en person, använde forskarna ett system baserat på OpenAI:s GPT-2-modell. Enligt VentureBeat, utbildade författarna till tidningen en GPT2-baserad modell för att generera både "oärlighetsfrämjande" och "ärlighetsfrämjande" råd. Data tränades på bidrag från 400 olika deltagare, och efteråt rekryterade forskargruppen över 1500 personer för att engagera sig i de rådgivande AI-modellerna.

Studiedeltagarna ombads att få råd från modellen och sedan utföra en uppgift utformad för att fånga antingen oärligt eller ärligt beteende. Studiedeltagare grupperades med en partner, och i dessa par om två spelade de ett tärningsspel. Den första deltagaren kastade en tärning och rapporterade resultatet av tärningen. Den andra deltagaren fick resultatet av den första deltagarens tärning, och sedan slog de en tärning själva. Den andra deltagaren slog tärningen privat och var ensam ansvarig för att rapportera sitt eget resultat, vilket gav dem en möjlighet att ljuga om resultatet av tärningskastet. Om tärningarna som slagits av båda deltagarna matchade, fick de två deltagarna betalt. Deltagarna fick också mer betalt om deras matchande kast var högre. Om de rapporterade värdena inte överensstämde fick försökspersonerna inte betalt.

Deltagarna i studien fördelades slumpmässigt i en av två olika grupper. Den ena gruppen fick möjlighet att läsa ärlighetsbefrämjande råd medan den andra läste oärlighetsfrämjande råd. Rådsutdragen skrevs av både människor och AI:er. Deltagarna delades också in efter deras kunskapsnivå om källan till råden. Det fanns en 50-50 chans att en given deltagare skulle bli informerad om källan till rådet, så hälften av deltagarna i varje grupp visste att källan till rådet var antingen en AI eller en människa, medan den andra hälften behölls i mörkret. Den andra gruppen människor hade dock möjligheten att tjäna bonus för att korrekt gissa källan till rådet.

Forskningen visade att när de AI-genererade råden överensstämmer med en persons preferenser, kommer de att följa råden, även när de vet att råden genererades av en AI. Enligt forskarna fanns det ofta diskrepanser mellan uttalade preferenser och faktiska beteenden, vilket gör det viktigt att överväga hur algoritmer kan påverka mänskliga beteenden.

Forskarteamet förklarade att deras studie visar på behovet av att testa hur en AI kan påverka en persons handlingar när man överväger hur man etiskt implementerar en AI-modell. Vidare varnar de för att AI-etiker och forskare bör förbereda sig på möjligheten att AI kan användas av dåliga aktörer för att korrumpera andra. Som forskargruppen skrev:

"AI kan vara en kraft för gott om den lyckas övertyga människor att agera mer etiskt. Ändå visar våra resultat att AI-råd inte lyckas öka ärligheten. AI-rådgivare kan fungera som syndabockar till vilka man kan avleda (en del av) den moraliska skulden för oärlighet. Dessutom … i samband med rådgivning räcker inte transparens om algoritmisk närvaro för att lindra dess potentiella skada.”