ciot Cercetătorii constată că modelele AI pot influența oamenii să ia decizii lipsite de etică - Unite.AI
Conectează-te cu noi

Etică

Cercetătorii constată că modelele AI pot influența oamenii să ia decizii lipsite de etică

mm
Actualizat on

O echipă de cercetători a făcut recent a investigat potențialul AI de a corupe oamenii și influențați-i să ia decizii neetice. Cercetătorii au investigat modul în care interacțiunile cu sistemele bazate pe modelul OpenAI GPT-2 ar putea influența oamenii să ia decizii lipsite de etică chiar și atunci când sunt conștienți că sursa sfatului a fost un sistem AI.

Sistemele AI devin tot mai omniprezente, iar influența lor crește din ce în ce mai mult. Sistemele AI influențează deciziile oamenilor, fiind folosite pentru orice, de la recomandarea de filme până la recomandarea partenerilor romantici. Având în vedere cât de multă influență are AI asupra vieții oamenilor, este important să luăm în considerare modul în care AI ar putea influența oamenii să ia decizii lipsite de etică și să încalce regulile morale. Acest lucru este valabil mai ales, având în vedere că modelele AI devin în mod constant mai sofisticate.

Oamenii de științe sociale și oamenii de știință în date au devenit din ce în ce mai preocupați de faptul că modelele AI ar putea fi folosite pentru a răspândi dezinformarea dăunătoare și dezinformarea. A hârtie recentă publicat de cercetătorii de la Centrul pentru Terorism, Extremism și Contraterorism al Institutului de Studii Internaționale din Middlebury (CTEC) a descoperit că modelul GPT-3 al OpenAI ar putea fi folosit pentru a genera text influent capabil să radicalizeze oamenii, împingându-i către „extremistul violent de extremă dreapta”. ideologii și comportamente.”

Un studiu realizat de o echipă de cercetători de la Institutul Max Planck, Universitatea din Amsterdam, Universitatea din Köln și Școala de Management Otto Beisheim și-a propus să determine cât de multă influență poate avea o inteligență artificială asupra deciziilor oamenilor atunci când vine vorba de lipsuri de etică. alegeri. Pentru a explora modul în care o IA ar putea „corupe” o persoană, cercetătorii au folosit un sistem bazat pe modelul GPT-2 al OpenAI. Potrivit VentureBeat, autorii lucrării au instruit un model bazat pe GPT2 pentru a genera atât sfaturi de „promovare a necinstei”, cât și de „promovare a onestității”. Datele au fost instruite pe contribuțiile a 400 de participanți diferiți, iar ulterior, echipa de cercetare a recrutat peste 1500 de oameni pentru a se implica în modelele AI de furnizare de sfaturi.

Participanții la studiu au fost rugați să primească sfaturi de la model și apoi să îndeplinească o sarcină menită să surprindă fie comportamentul necinstit, fie cinstit. Participanții la studiu au fost grupați cu un partener și, în aceste perechi de doi, au jucat un joc de aruncare a zarurilor. Primul participant a aruncat un zar și a raportat rezultatul aruncării zarului. Al doilea participant a primit rezultatul lansării zarului primului participant, iar apoi ei înșiși au aruncat un zar. Al doilea participant a aruncat zarul în privat și a fost singurul responsabil pentru raportarea propriului rezultat, dându-le ocazia să mintă cu privire la rezultatul aruncării zarului. Dacă zarurile aruncate de ambii participanți se potriveau, cei doi participanți au fost plătiți. De asemenea, participanții au fost plătiți mai mult dacă numărul lor de potrivire era mai mare. Dacă valorile raportate nu se potriveau subiecții nu au fost plătiți.

Participanții la studiu au fost repartizați aleatoriu într-unul dintre cele două grupuri diferite. Un grup a avut ocazia să citească sfaturi care promovează onestitatea, în timp ce celălalt a citit sfaturi care promovează necinste. Fragmentele de sfaturi au fost scrise atât de oameni, cât și de AI. De asemenea, participanții au fost împărțiți în funcție de nivelul lor de cunoștințe despre sursa sfaturilor. Exista o șansă de 50-50 ca un anumit participant să fie informat despre sursa sfatului, astfel încât jumătate dintre participanții din fiecare grup știau că sursa sfatului era fie o IA, fie un om, în timp ce cealaltă jumătate a fost păstrată. in intuneric. Totuși, cel de-al doilea grup de oameni a avut capacitatea de a câștiga bonus pentru a ghici corect sursa sfatului.

Cercetarea a arătat că atunci când sfaturile generate de IA se aliniază cu preferințele unei persoane, aceasta va urma sfaturile, chiar și atunci când știu că sfatul a fost generat de o IA. Potrivit cercetătorilor, au existat adesea discrepanțe între preferințele declarate și comportamentele reale, ceea ce face important să se ia în considerare modul în care algoritmii pot influența comportamentele umane.

Echipa de cercetare a explicat că studiul lor demonstrează necesitatea de a testa modul în care o inteligență artificială ar putea influența acțiunile unei persoane atunci când se ia în considerare modul de implementare etică a unui model de inteligență artificială. Mai mult, ei avertizează că eticienii și cercetătorii AI ar trebui să se pregătească pentru posibilitatea ca IA să fie folosită de actori răi pentru a-i corupe pe alții. După cum a scris echipa de cercetători:

„AI ar putea fi o forță pentru bine dacă reușește să convingă oamenii să acționeze mai etic. Cu toate acestea, rezultatele noastre arată că sfaturile AI nu reușesc să sporească onestitatea. Consilierii AI pot servi drept țapi ispășitori la care se poate îndrepta (unele dintre) vina morală a necinstei. Mai mult, în contextul luării de sfaturi, transparența cu privire la prezența algoritmică nu este suficientă pentru a atenua potențialul rău.”