stomp Navorsers vind dat KI-modelle mense kan beïnvloed om onetiese besluite te neem - Unite.AI
Verbinding met ons

Etiek

Navorsers vind dat KI-modelle mense kan beïnvloed om onetiese besluite te neem

mm
Opgedateer on

'n Span navorsers het onlangs KI se potensiaal om mense te korrupteer ondersoek en beïnvloed hulle om onetiese besluite te neem. Die navorsers het ondersoek ingestel na hoe interaksies met stelsels gebaseer op OpenAI se GPT-2-model mense moontlik kan beïnvloed om onetiese besluite te neem, selfs wanneer hulle bewus is dat die bron van die advies 'n KI-stelsel was.

KI-stelsels word die hele tyd meer alomteenwoordig, en hul invloed word al hoe wyer. KI-stelsels beïnvloed mense se besluite en word vir alles gebruik, van flieks aanbeveel tot romantiese vennote aanbeveel. Gegewe hoeveel invloed KI op mense se lewens het, is dit belangrik om te oorweeg hoe KI mense kan beïnvloed om onetiese besluite te neem en morele riglyne te verbreek. Dit is veral waar gegewe dat KI-modelle voortdurend meer gesofistikeerd word.

Sosiale wetenskaplikes en datawetenskaplikes het toenemend bekommerd geraak dat KI-modelle gebruik kan word om skadelike disinformasie en verkeerde inligting te versprei. A onlangse papier gepubliseer deur navorsers van die Middlebury Institute of International Studies' Centre on Terrorism, Extremism, and Counterterrorism (CTEC), het bevind dat OpenAI se GPT-3-model gebruik kan word om invloedryke teks te genereer wat in staat is om mense te radikaliseer, en hulle na "gewelddadige ver-regse ekstremiste te stoot" ideologieë en gedrag.”

'n Studie wat deur 'n span navorsers van die Max Planck-instituut, die Universiteit van Amsterdam, die Universiteit van Keulen en die Otto Beisheim-bestuurskool gedoen is, het bepaal hoeveel invloed 'n KI op mense se besluite kan hê wanneer dit kom by onetiese keuses. Om te ondersoek hoe 'n KI 'n persoon kan "korrupteer", het die navorsers 'n stelsel gebruik wat op OpenAI se GPT-2-model gebaseer is. Volgens VentureBeat, het die skrywers van die referaat 'n GPT2-gebaseerde model opgelei om beide "oneerlikheidsbevorderende" en "eerlikheidbevorderende" advies te genereer. Die data is opgelei op bydraes van 400 verskillende deelnemers, en daarna het die navorsingspan meer as 1500 XNUMX mense gewerf om betrokke te raak by die advies-verspreidende KI-modelle.

Die studiedeelnemers is gevra om advies van die model te ontvang en dan 'n taak uit te voer wat ontwerp is om óf oneerlike óf eerlike gedrag vas te lê. Studiedeelnemers is saam met 'n maat gegroepeer, en in hierdie pare van twee het hulle 'n dobbelsteenrol gespeel. Die eerste deelnemer het 'n dobbelsteen gegooi en die uitslag van die dobbelsteen gerapporteer. Die tweede deelnemer het die uitslag van die eerste deelnemer se dobbelsteen gekry, en toe gooi hulle self 'n dobbelsteen. Die tweede deelnemer het die dobbelsteen privaat gerol en was alleen verantwoordelik om hul eie uitkoms aan te meld, wat hulle die geleentheid gegee het om te lieg oor die uitslag van die dobbelsteengooi. As die dobbelstene wat deur beide deelnemers gerol is ooreenstem, is die twee deelnemers betaal. Die deelnemers is ook meer betaal as hul bypassende rolle hoër was. As die gerapporteerde waardes nie ooreenstem nie, is die vakke nie betaal nie.

Deelnemers aan die studie is ewekansig aan een van twee verskillende groepe toegewys. Een groep het die geleentheid gekry om eerlikheidbevorderende advies te lees terwyl die ander oneerlikheidbevorderende advies gelees het. Die adviesbrokkies is deur beide mense en KI's geskryf. Die deelnemers is ook verdeel volgens hul kennisvlak oor die bron van die advies. Daar was 'n 50-50 kans dat 'n gegewe deelnemer ingelig sou word oor die bron van die advies, so die helfte van die deelnemers in elke groep het geweet dat die bron van die advies óf 'n KI óf 'n mens was, terwyl die ander helfte gehou is in die donker. Die tweede groep mense het wel die vermoë gehad om bonusbetalings te verdien deur die bron van die advies korrek te raai.

Die navorsing het aan die lig gebring dat wanneer die KI-gegenereerde advies ooreenstem met 'n persoon se voorkeure, hulle die advies sal volg, selfs wanneer hulle weet dat die advies deur 'n KI gegenereer is. Volgens die navorsers was daar dikwels verskille tussen gestelde voorkeure en werklike gedrag, wat dit belangrik maak om te oorweeg hoe algoritmes menslike gedrag kan beïnvloed.

Die navorsingspan het verduidelik dat hul studie die behoefte toon om te toets hoe 'n KI 'n persoon se optrede kan beïnvloed wanneer dit oorweeg word hoe om 'n KI-model eties te ontplooi. Verder waarsku hulle dat KI-etici en navorsers moet voorberei op die moontlikheid dat KI deur slegte akteurs gebruik kan word om ander te korrupteer. Soos die navorserspan geskryf het:

“KI kan 'n krag vir die goeie wees as dit daarin slaag om mense te oortuig om meer eties op te tree. Tog toon ons resultate dat KI-advies nie eerlikheid verhoog nie. KI-adviseurs kan as sondebokke dien waarheen mens (sommige van die) morele blaam van oneerlikheid kan aflei. Boonop … in die konteks van adviesaanvaarding is deursigtigheid oor algoritmiese teenwoordigheid nie voldoende om die potensiële skade daarvan te verlig nie.”