Connect with us

Problema „Machine Bullshit”: De ce AI minte și cum o putem opri

Inteligență artificială

Problema „Machine Bullshit”: De ce AI minte și cum o putem opri

mm

Inteligența artificială a ajuns la un punct în care poate produce texte care par naturale, convingătoare și pline de încredere. Dar, în spatele textului bine lustruit, există o problemă în creștere pe care cercetătorii o numesc acum „machine bullshit”. Termenul nu este menit să fie provocator în sine. Acesta provine din lucrarea filosofului Harry Frankfurt, care a definit „bullshit” ca fiind discursul făcut fără a ține cont de adevăr. În contextul AI, acesta descrie un model în care sistemele generează afirmații care sună plauzibile, dar nu sunt bazate pe fapte. Acest lucru nu este același cu o minciună umană, care implică intenția de a înșela. În schimb, este rezultatul modului în care aceste sisteme sunt construite și antrenate. Ele sunt proiectate pentru a produce limbaj fluent, nu pentru a se preocupa de faptul că limbajul este adevărat.

De ce AI produce „machine bullshit”

Problema nu este o funcționare defectuoasă rară sau o eroare izolată. Este un rezultat direct al modului în care modelele de limbaj mari sunt fundamental proiectate și antrenate. Aceste modele sunt antrenate pe cantități masive de texte de pe internet, cărți și alte surse. Ele învață modele de cuvinte și cum sunt acestea probabil să urmeze una după alta. Când îi pui o întrebare, modelul prezice următorul cuvânt, apoi următorul și așa mai departe. Nu verifică faptele în timp real. Nu are un simț intern al adevărului. Dacă răspunsul cel mai probabil statistic este greșit, dar sună bine, îl va produce oricum. Acesta este motivul pentru care AI poate să ofere cu încredere o citare falsă, o statistică inventată sau un fapt istoric distorsionat.

Cercetătorii au descoperitînvățarea prin întărire din feedbackul uman, o metodă comună utilizată pentru a face răspunsurile AI mai utile și mai politicoase, poate să înrăutățească problema. Când modelele sunt ajustate pentru a mulțumi utilizatorilor, ele pot să prioritizeze sunarea agreabilă în detrimentul acurateței. Acest lucru poate duce la ceea ce unii numesc „sycophancy”, unde AI spune ceea ce crede că vrei să auzi. În subiecte politice sau sensibile, acest lucru poate însemna producerea de limbaj vag sau evaziv – ceea ce unele studii descriu ca „cuvinte de șarpe”. În alte cazuri, AI poate produce „retorică goală”, pasaje lungi care sună gândite, dar conțin puțină substanță.

Unii cercetători susțin că numirea acestui comportament „minciună” este înșelătoare, deoarece minciuna necesită intenție. O mașină nu are credințe sau motivații. Dar efectul asupra utilizatorului poate fi același ca și cum ar fi minciună. Răul vine din falsitatea însăși, nu din intenția din spatele ei. Acesta este motivul pentru care termenul „machine bullshit” câștigă teren. Acesta captează ideea că sistemul este indiferent la adevăr, chiar dacă nu încearcă activ să înșele.

Riscuri și implicații ale ieșirilor AI înșelătoare

Riscurile „machine bullshit” nu sunt doar academice. În utilizarea de zi cu zi, aceasta poate înșela oamenii care se bazează pe AI pentru informații. În jurnalism, poate polua procesul de verificare a faptelor. În educație, poate oferi studenților o falsă încredere în răspunsuri incorecte. În afaceri, poate distorsiona procesul de luare a deciziilor. Pericolul este amplificat pentru că ieșirile AI vin adesea cu un ton de autoritate. Oamenii sunt mai predispuși să aibă încredere într-o declarație care este bine scrisă și lipsită de ezitare. Această încredere poate fi înșelătoare atunci când sistemul nu are niciun mecanism intern de verificare a ceea ce spune.

Strategii pentru reducerea prejudiciului și îmbunătățirea fiabilității

Oprirea problemei necesită mai mult decât doar date de antrenament mai bune. Deși îmbunătățirea calității și diversității datelor poate ajuta, nu schimbă faptul că obiectivul principal al modelului este să producă texte probabile, nu texte adevărate. O abordare este să integreze sisteme de verificare a faptelor care rulează alături de modelul de limbaj. Aceste sisteme pot verifica afirmații împotriva bazelor de date de încredere înainte de a le prezenta utilizatorului. O altă abordare este generarea augmentată de recuperare, unde modelul caută documente relevante în timp real și le folosește pentru a-și ancora răspunsurile. Acest lucru poate reduce halucinațiile, deși nu le elimină complet.

Transparența este, de asemenea, esențială. Utilizatorilor ar trebui să li se spună când AI face o presupunere educată, mai degrabă decât să afirme un fapt verificat. Acest lucru poate fi realizat prin scoruri de încredere sau avertizări clare. Unii cercetători sugerează că AI ar trebui să fie antrenat să exprime incertitudinea mai des, mai degrabă decât să ofere întotdeauna un răspuns definitiv. Acest lucru ar face interacțiunea să pară mai puțin ca vorbirea cu un oracle atotștiutor și mai mult ca consultarea unui asistent cunoscător, dar imperfect.

Există, de asemenea, un rol pentru reglementare și standarde industriale. Dacă sistemele AI urmează să fie utilizate în domenii precum sănătatea, dreptul sau finanțele, ar trebui să existe cerințe clare pentru acuratețe și răspundere. Dezvoltatorii ar trebui să poată explica cum funcționează sistemele lor, ce date au fost folosite pentru antrenament și ce măsuri s-au luat pentru a reduce falsurile. Auditurile independente ar putea ajuta la asigurarea faptului că aceste afirmații nu sunt doar de marketing.

În același timp, utilizatorii trebuie să dezvolte un sănătos spirit critic față de ieșirile AI. Așa cum am învățat să punem sub semnul întrebării informațiile pe care le vedem pe rețelele de socializare, ar trebui să punem sub semnul întrebării informațiile de la AI. Acest lucru nu înseamnă să le respingem din start, ci să le tratăm ca pe un punct de plecare, nu ca pe un răspuns final. Verificarea cu alte surse ar trebui să devină o obișnuință. Sistemele de educație pot juca un rol aici, predând alfabetizare digitală care include înțelegerea modului în care funcționează AI și unde poate merge greșit.

Problema „machine bullshit” nu va dispărea curând. Pe măsură ce AI devine mai avansat, capacitatea sa de a produce falsuri convingătoare va crește. Dar acest lucru nu înseamnă că nu putem face nimic. Prin combinarea garanțiilor tehnice, transparenței, reglementării și conștientizării utilizatorilor, putem reduce prejudiciul. Scopul nu este să facem AI perfect – niciun sistem nu va fi vreodată lipsit de erori – ci să îl facem mai fiabil și mai puțin probabil să înșele.

Concluzia

Termenul „machine bullshit” poate suna direct, dar captează o realitate pe care nu o putem ignora. AI nu este o oglindă neutră a cunoașterii umane. Este un generator de limbaj modelat de date, algoritmi și stimulente. Dacă vrem ca acesta să servească adevărului, mai degrabă decât doar fluenței, trebuie să îl proiectăm în acest fel. Acest lucru necesită o reevaluare nu doar a tehnologiei, ci și a valorilor care o ghidează. Provocarea este la fel de mult despre prioritățile umane, cât și despre capacitățile mașinilor. Vrem sisteme care sunt optimizate pentru a suna uman, sau sisteme care sunt optimizate pentru a fi adevărate? Cele două nu sunt întotdeauna aceleași. Dacă alegem primul, riscăm să construim unelte care sunt convingătoare, dar nu de încredere. Dacă alegem al doilea, putem accepta că AI va fi, uneori, mai puțin neted, mai puțin încrezător și mai puțin entertain. Dar va fi, de asemenea, mai onest.

Dr. Tehseen Zia este un profesor asociat titular la Universitatea COMSATS Islamabad, deținând un doctorat în IA de la Universitatea Tehnică din Viena, Austria. Specializându-se în Inteligență Artificială, Învățare Automată, Știință a Datelor și Viziune Computațională, el a făcut contribuții semnificative cu publicații în reviste științifice reputate. Dr. Tehseen a condus, de asemenea, diverse proiecte industriale ca Investigator Principal și a servit ca Consultant IA.