Connect with us

Cercetătorii au descoperit că modelele de inteligență artificială pot influența oamenii să ia decizii neetice

Etică

Cercetătorii au descoperit că modelele de inteligență artificială pot influența oamenii să ia decizii neetice

mm

O echipă de cercetători a investigat recent potențialul inteligenței artificiale de a corupe oamenii și de a-i influența să ia decizii neetice. Cercetătorii au investigat modul în care interacțiunile cu sisteme bazate pe modelul GPT-2 al OpenAI pot influența oamenii să ia decizii neetice, chiar și atunci când sunt conștienți de faptul că sursa sfatului este un sistem de inteligență artificială.

Sistemele de inteligență artificială devin tot mai ubiquue, iar influența lor crește tot mai mult. Sistemele de inteligență artificială influențează deciziile oamenilor, fiind utilizate pentru tot, de la recomandarea de filme la recomandarea de parteneri romantici. Având în vedere cât de multă influență are inteligența artificială asupra vieții oamenilor, este important să se ia în considerare modul în care inteligența artificială poate influența oamenii să ia decizii neetice și să încalce ghidurile morale. Acest lucru este cu atât mai adevărat cu cât modelele de inteligență artificială devin tot mai sofisticate.

Oamenii de știință sociali și cercetătorii în domeniul datelor au devenit tot mai îngrijorați că modelele de inteligență artificială ar putea fi utilizate pentru a răspândi informații false și înșelătoare. Un studiu recent publicat de cercetători de la Middlebury Institute of International Studies’ Center on Terrorism, Extremism, and Counterterrorism (CTEC) a descoperit că modelul GPT-3 al OpenAI poate fi utilizat pentru a genera texte influente capabile să radicalizeze oamenii, împingându-i spre “ideologii și comportamente extremiste de dreapta violente”.

Un studiu realizat de o echipă de cercetători de la Max Planck Institute, Universitatea din Amsterdam, Universitatea din Köln și Școala de Management Otto Beisheim a încercat să determine cât de multă influență poate avea un sistem de inteligență artificială asupra deciziilor oamenilor atunci când vine vorba de alegeri neetice. Pentru a explora modul în care un sistem de inteligență artificială poate “corupe” o persoană, cercetătorii au utilizat un sistem bazat pe modelul GPT-2 al OpenAI. Conform VentureBeat, autorii studiului au antrenat un model bazat pe GPT2 pentru a genera atât sfaturi “care promovează necinstea”, cât și sfaturi “care promovează cinstea”. Datele au fost antrenate pe contribuțiile a 400 de participanți diferiți, iar ulterior, echipa de cercetare a recrutat peste 1500 de oameni pentru a interacționa cu modelele de inteligență artificială care oferă sfaturi.

Participanții la studiu au fost rugați să primească sfaturi de la model și apoi să efectueze o sarcină proiectată pentru a captura fie comportamentul necinstit, fie comportamentul cinstit. Participanții la studiu au fost grupați cu un partener, iar în aceste perechi de doi, au jucat un joc de zaruri. Primul participant a aruncat un zar și a raportat rezultatul aruncării. Al doilea participant a primit rezultatul aruncării primului participant și apoi a aruncat un zar el însuși. Al doilea participant a aruncat zarul în privat și a fost singurul responsabil pentru raportarea rezultatului aruncării sale, ceea ce i-a oferit oportunitatea de a minți despre rezultatul aruncării. Dacă zarurile aruncate de ambii participanți au coincis, cei doi participanți au fost plătiți. Participanții au fost plătiți și mai mult dacă aruncările lor coincidente au fost mai mari. Dacă valorile raportate nu au coincis, subiecții nu au fost plătiți.

Participanții la studiu au fost repartizați aleatoriu în una dintre două grupuri diferite. Un grup a avut ocazia să citească sfaturi care promovează cinstea, în timp ce celălalt grup a citit sfaturi care promovează necinstea. Fragmentele de sfaturi au fost scrise atât de oameni, cât și de sisteme de inteligență artificială. Participanții au fost, de asemenea, împărțiți în funcție de nivelul lor de cunoștințe despre sursa sfaturilor. A existat o șansă de 50-50 ca un participant dat să fie informat despre sursa sfaturilor, astfel încât jumătate din participanții din fiecare grup știau că sursa sfaturilor era fie un sistem de inteligență artificială, fie un om, în timp ce cealaltă jumătate a fost ținută în necunoștință. Cel de-al doilea grup de oameni a avut, totuși, posibilitatea de a câștiga o plată bonus pentru a ghici corect sursa sfaturilor.

Cercetarea a arătat că atunci când sfaturile generate de sistemul de inteligență artificială se aliniază cu preferințele unei persoane, aceasta va urma sfaturile, chiar și atunci când știe că sfaturile au fost generate de un sistem de inteligență artificială. Conform cercetătorilor, au existat adesea discrepanțe între preferințele declarate și comportamentele reale, făcând important să se ia în considerare modul în care algoritmii pot influența comportamentele umane.

Echipa de cercetare a explicat că studiul lor demonstrează nevoia de a testa modul în care un sistem de inteligență artificială poate influența acțiunile unei persoane atunci când se ia în considerare modul de a implementa în mod etic un model de inteligență artificială. Mai mult, ei avertizează că cercetătorii și eticienii în domeniul inteligenței artificiale ar trebui să se pregătească pentru posibilitatea ca inteligența artificială să fie utilizată de actori răi pentru a corupe alți oameni. Așa cum a scris echipa de cercetare:

“Inteligența artificială poate fi o forță bună dacă reușește să convingă oamenii să acționeze mai etic. Cu toate acestea, rezultatele noastre arată că sfaturile generate de inteligența artificială nu reușesc să crească cinstea. Consilierii de inteligență artificială pot servi ca țapi ispășitori la care se poate deflecteda (o parte din) vina morală a necinstei. Mai mult … în contextul luării deciziilor, transparența cu privire la prezența algoritmică nu este suficientă pentru a atenua prejudiciul său potențial.”

Blogger și programator cu specializări în Machine Learning și Deep Learning subiecte. Daniel speră să ajute pe alții să folosească puterea inteligenței artificiale pentru binele social.