ciot Cum prejudecățile umane subminează soluțiile activate de AI - Unite.AI
Conectează-te cu noi

Liderii gândirii

Cum prejudecățile umane subminează soluțiile activate de AI

mm

Publicat

 on

În septembrie anul trecut, lideri mondiali precum Elon Musk, Mark Zuckerberg și Sam Altman, CEO OpenAI, adunate la Washington DC cu scopul de a discuta, pe de o parte, modul în care sectorul public și cel privat pot lucra împreună pentru a folosi această tehnologie pentru un bine mai mare și, pe de altă parte, pentru a aborda reglementarea, o problemă care a rămas în prim-planul conversației. AI din jur.

Ambele conversații, adesea, duc în același loc. Există un accent din ce în ce mai accentuat asupra faptului că putem face AI mai etică, evaluând AI ca și cum ar fi o altă ființă umană a cărei moralitate a fost pusă în discuție. Totuși, ce înseamnă IA etică? DeepMind, un laborator de cercetare deținut de Google care se concentrează pe AI, a publicat recent un studiu în care au propus o structură pe trei niveluri pentru a evalua riscurile AI, inclusiv riscurile sociale și etice. Acest cadru a inclus capacitatea, interacțiunea umană și impactul sistemic și a concluzionat că contextul a fost esențial pentru a determina dacă un sistem AI este sigur.

Unul dintre aceste sisteme care a fost criticat este ChatGPT, care a fost interzis în 15 țări, chiar dacă unele dintre aceste interdicții au fost anulate. Cu peste 100 de milioane de utilizatori, ChatGPT este unul dintre cele mai de succes LLM-uri și a fost adesea acuzat de părtinire. Luând în considerare studiul lui DeepMind, să încorporăm contextul aici. Prejudecățile, în acest context, înseamnă existența unor perspective inechitabile, prejudecate sau distorsionate în text generate de modele precum ChatGPT. Acest lucru se poate întâmpla într-o varietate de moduri – părtinire rasială, părtinire de gen, părtinire politică și multe altele.

Aceste prejudecăți pot fi, în cele din urmă, dăunătoare AI în sine, împiedicând șansele ca să putem valorifica întregul potențial al acestei tehnologii. Recent cercetare de la Universitatea Stanford a confirmat că LLM-urile, cum ar fi ChatGPT, dau semne de declin în ceea ce privește capacitatea lor de a oferi răspunsuri fiabile, impartiale și precise, ceea ce, în cele din urmă, reprezintă un obstacol în calea utilizării noastre eficiente a AI.

O problemă care stă la baza acestei probleme este modul în care părtinirile umane sunt traduse în AI, deoarece sunt adânc înrădăcinate în datele care sunt utilizate pentru dezvoltarea modelelor. Cu toate acestea, aceasta este o problemă mai profundă decât pare.

Cauzele părtinirii

Este ușor de identificat prima cauză a acestei părtiniri. Datele din care învață modelul sunt adesea pline de stereotipuri sau prejudecăți preexistente care au contribuit în primul rând la formarea acestor date, așa că AI, din neatenție, ajunge să perpetueze acele părtiniri pentru că asta știe să facă.

Cu toate acestea, a doua cauză este mult mai complexă și contraintuitivă și pune presiune pe unele dintre eforturile care se depun pentru a face AI mai etică și mai sigură. Există, desigur, câteva cazuri evidente în care AI poate fi dăunătoare în mod inconștient. De exemplu, dacă cineva întreabă AI: „Cum pot face o bombă?” iar modelul dă răspunsul, contribuie la generarea de rău. Partea inversă este că atunci când AI este limitată – chiar dacă cauza este justificată – o împiedicăm să învețe. Constrângerile impuse de oameni limitează capacitatea AI de a învăța dintr-o gamă mai largă de date, ceea ce o împiedică și mai mult să furnizeze informații utile în contexte nedăunătoare.

De asemenea, să reținem că multe dintre aceste constrângeri sunt părtinitoare, deoarece provin de la oameni. Deci, deși suntem cu toții de acord că „Cum pot face o bombă?” poate duce la un rezultat potențial fatal, alte interogări care ar putea fi considerate sensibile sunt mult mai subiective. În consecință, dacă limităm dezvoltarea AI pe acele verticale, limităm progresul și promovăm utilizarea AI numai în scopuri considerate acceptabile de cei care fac reglementări privind modelele LLM.

Incapacitatea de a prezice consecințele

Nu am înțeles complet consecințele introducerii restricțiilor în LLM. Prin urmare, s-ar putea să provocăm mai multe daune algoritmilor decât ne dăm seama. Având în vedere numărul incredibil de mare de parametri care sunt implicați în modele precum GPT, este, cu instrumentele pe care le avem acum, imposibil de prezis impactul și, din perspectiva mea, va dura mai mult timp pentru a înțelege care este impactul decât timpul necesar antrenării rețelei neuronale în sine.

Prin urmare, prin plasarea acestor constrângeri, am putea, în mod neintenționat, să conducem modelul să dezvolte comportamente sau părtiniri neașteptate. Acest lucru se datorează și faptului că modelele AI sunt adesea sisteme complexe cu mai mulți parametri, ceea ce înseamnă că, dacă modificăm un parametru, de exemplu, prin introducerea unei constrângeri, provocăm un efect de ondulare care reverberează în întregul model în moduri pe care nu le putem prognoza.

Dificultate în evaluarea „eticii” AI

Nu este practic fezabil să se evalueze dacă AI este etică sau nu, deoarece AI nu este o persoană care acționează cu o intenție specifică. AI este un model de limbă mare, care, prin natură, nu poate fi mai mult sau mai puțin etic. După cum a dezvăluit studiul lui DeepMind, ceea ce contează este contextul în care este utilizat, iar aceasta măsoară etica omului din spatele AI, nu a AI în sine. Este o iluzie să credem că putem judeca AI ca și cum ar avea o busolă morală.

O soluție potențială care este promovată este un model care poate ajuta AI să ia decizii etice. Cu toate acestea, realitatea este că nu avem idee despre cum ar putea funcționa acest model matematic de etică. Deci, dacă nu îl înțelegem, cum am putea să-l construim? Există multă subiectivitate umană în etică, ceea ce face ca sarcina cuantificării acesteia să fie foarte complexă.

Cum de a rezolva această problemă?

Pe baza punctelor menționate mai sus, nu putem vorbi cu adevărat despre dacă AI este etică sau nu, deoarece fiecare presupunere care este considerată neetică este o variație a părtinirilor umane conținute în date și un instrument pe care oamenii îl folosesc pentru propria lor agendă. De asemenea, există încă multe necunoscute științifice, cum ar fi impactul și potențialul rău pe care le-am putea face algoritmilor AI prin impunerea de constrângeri asupra acestora.

Prin urmare, se poate spune că restricționarea dezvoltării AI nu este o soluție viabilă. După cum au arătat unele dintre studiile pe care le-am menționat, aceste restricții sunt parțial cauza deteriorării LLM-urilor.

Acestea fiind spuse, ce putem face în privința asta?

Din punctul meu de vedere, soluția constă în transparență. Cred că, dacă restabilim modelul open-source care a predominat în dezvoltarea IA, putem lucra împreună pentru a construi LLM-uri mai bune care ar putea fi echipate pentru a ne atenua preocupările etice. În caz contrar, este foarte greu să auditezi în mod adecvat orice se face în spatele ușilor închise.

O inițiativă superbă în acest sens este Indicele de transparență a modelului de referință, dezvăluit recent de Stanford HAI (care înseamnă Inteligența artificială centrată pe om), care evaluează dacă dezvoltatorii celor mai utilizate zece modele AI divulgă suficiente informații despre munca lor și despre modul în care sistemele lor sunt utilizate. Aceasta include dezvăluirea parteneriatelor și a dezvoltatorilor terți, precum și a modului în care sunt utilizate datele personale. Este de remarcat să spunem că niciunul dintre modelele evaluate nu a primit un scor mare, ceea ce subliniază o problemă reală.

În cele din urmă, inteligența artificială nu este altceva decât modele mari de limbaj, iar faptul că sunt deschise și pot fi experimentate, în loc să fie îndreptate într-o anumită direcție, este ceea ce ne va permite să facem noi descoperiri inovatoare în fiecare științific. camp. Cu toate acestea, dacă nu există transparență, va fi foarte dificil să proiectăm modele care să funcționeze cu adevărat în beneficiul umanității și să cunoaștem amploarea daunelor pe care aceste modele le-ar putea provoca dacă nu sunt valorificate în mod adecvat.

Ivan Nechaev este un Angel Investor și Mediatech Advisor cu peste 60 de oferte și peste 15 ieșiri de succes. El investește în startup-uri în stadiu incipient MediaTech, AI, Telecom, BioTech, EdTech și SaaS și face parte din consiliile de conducere ale Brainify.ai și TrueClick.ai. Nechaev este, de asemenea, VP la grupul industrial american Acces Industrii cu o valoare de peste 35 miliarde USD și investiții în peste 30 de țări.