Inteligență artificială
Cum LLM-urile ne obligă să redefinim inteligența

Există un vechi proverb: Dacă arată ca o rață, înoată ca o rață și cacă ca o rață, atunci probabil că este o rață. Această modalitate simplă de a raționa, adesea legată de poetul indianian James Whitcomb Riley, a modelat modul în care gândim despre inteligența artificială de decenii. Ideea că comportamentul este suficient pentru a identifica inteligența a inspirat faimoasa “Imitație a jocului” a lui Alan Turing, acum numit Testul Turing.
Turing a sugerat că, dacă un om nu poate spune dacă conversează cu o mașină sau cu un alt om, atunci mașina poate fi considerată inteligentă. Atât testul raței, cât și testul Turing sugerează că ceea ce contează nu este ceea ce se află în interiorul unui sistem, ci cum se comportă. De decenii, acest test a ghidat progresele în domeniul inteligenței artificiale. Dar, odată cu sosirea modelelor de limbaj mari (LLM), situația s-a schimbat. Aceste sisteme pot scrie texte fluente, pot purta conversații și pot rezolva sarcini în moduri care par remarcabil de umane. Întrebarea nu mai este dacă mașinile pot imita conversația umană, ci dacă această imitație este o inteligență adevărată. Dacă un sistem poate scrie ca noi, poate raționa ca noi și poate crea ca noi, ar trebui să îl numim inteligent? Sau comportamentul singur nu mai este suficient pentru a măsura inteligența?
Evoluția inteligenței mașinilor
Modelele de limbaj mari au schimbat modul în care gândim despre inteligența artificială. Aceste sisteme, care odinioară erau limitate la generarea de răspunsuri textuale de bază, pot acum rezolva probleme logice, scrie cod de calculator, redacta povești și chiar pot asista la sarcini creative, cum ar fi scrierea de scenarii. O dezvoltare cheie în acest progres este capacitatea lor de a rezolva probleme complexe prin raționament pas cu pas, o metodă numită raționament în lanț. Prin descompunerea unei probleme în părți mai mici, un LLM poate rezolva probleme matematice complexe sau puzzle-uri logice într-un mod care pare similar cu rezolvarea problemelor umane. Această capacitate le-a permis să egaleze sau chiar să depășească performanța umană în benchmark-uri avansate, cum ar fi MATH sau GSM8K. Astăzi, LLM-urile posedă și capacități multimodale. Pot lucra cu imagini, pot interpreta scanări medicale, pot explica puzzle-uri vizuale și pot descrie diagrame complexe. Cu aceste progrese, întrebarea nu mai este dacă LLM-urile pot imita comportamentul uman, ci dacă acest comportament reflectă o înțelegere adevărată.
Urme de gândire umană
Succesul LLM-urilor redefinesc modul în care înțelegem inteligența. Accentul se mută de la alinierea comportamentului inteligenței artificiale cu cel uman, așa cum sugerează testul Turing, la explorarea modului în care LLM-urile reflectă gândirea umană în modul în care procesează informația (adică o gândire umană adevărată). De exemplu, într-un studiu recent, cercetătorii au comparat funcționarea internă a modelelor de inteligență artificială cu activitatea creierului uman. Studiul a arătat că LLM-urile cu peste 70 de miliarde de parametri, nu numai că au atins acuratețea umană, dar au organizat și informația internă în moduri care corespund modelelor de activitate a creierului uman.
Când atât oamenii, cât și modelele de inteligență artificială au lucrat la sarcini de recunoaștere a pattern-urilor, scanările creierului au arătat modele de activitate similare la participanții umani și modele computaționale corespunzătoare în modelele de inteligență artificială. Modelele au grupat concepte abstracte în straturile interne în moduri care corespund direct cu activitatea undelor creierului uman. Acest lucru sugerează că un raționament de succes poate necesita structuri organizatorice similare, atât în sisteme biologice, cât și în sisteme artificiale.
Cu toate acestea, cercetătorii sunt atenți să remarce limitele acestui studiu. Studiul a implicat un număr relativ mic de participanți umani, iar oamenii și mașinile au abordat sarcinile în moduri diferite. Oamenii au lucrat cu pattern-uri vizuale, în timp ce modelele de inteligență artificială au procesat descrieri textuale. Corelația dintre procesarea umană și cea a mașinii este intrigantă, dar nu demonstrează că mașinile înțeleg conceptele în același mod în care o fac oamenii.
Există și diferențe clare de performanță. În timp ce cele mai bune modele de inteligență artificială au atins acuratețea umană la pattern-uri simple, au arătat scăderi mai dramatice de performanță la sarcinile cele mai complexe, comparativ cu participanții umani. Acest lucru sugerează că, în ciuda similarităților în organizare, pot exista încă diferențe fundamentale în modul în care oamenii și mașinile procesează concepte abstracte complexe.
Perspectiva sceptică
În ciuda acestor descoperiri impresionante, un argument puternic sugerează că LLM-urile nu sunt altceva decât niște imitatori foarte abili. Această perspectivă vine de la experimentul de gândire al filosofului John Searle, “Camera chineză“, care ilustrează de ce comportamentul nu este egal cu înțelegerea.
În acest experiment de gândire, Searle ne cere să ne imaginăm o persoană încuiată într-o cameră și care poate vorbi doar engleza. Persoana primește simboluri chineze și folosește o carte de reguli în engleză pentru a manipula aceste simboluri și a produce răspunsuri. Din exteriorul camerei, răspunsurile sale par exact ca ale unui vorbitor nativ de chineză. Cu toate acestea, Searle argumentează că persoana nu înțelege nimic despre chineză. El urmează pur și simplu reguli fără a avea o înțelegere reală.
Criticii aplică aceeași logică LLM-urilor. Ei argumentează că aceste sisteme sunt “papagali stohastici” care generează răspunsuri pe baza pattern-urilor statistice din datele de antrenare, nu pe baza unei înțelegeri reale. Termenul “stohastic” se referă la natura lor probabilistică, în timp ce “papagal” subliniază comportamentul lor imitativ fără o înțelegere reală.
Mai multe limitări tehnice ale LLM-urilor sprijină, de asemenea, acest argument. LLM-urile generează frecvent “halucinații“; răspunsuri care par plauzibile, dar sunt complet incorecte, înșelătoare și fără sens. Acest lucru se întâmplă pentru că selectează cuvinte statistic plauzibile, în loc să consulte o bază de cunoștințe internă sau să înțeleagă adevărul și falsul. Aceste modele reproduc, de asemenea, erori și prejudecăți umane. Se confundă cu informații irelevante pe care oamenii le-ar ignora cu ușurință. Ele exibă stereotipuri rasiale și de gen, deoarece au învățat din date care conțin aceste prejudecăți. O altă limitare revelatoare este “polarizarea poziției”, în care modelele suprasolicită informațiile de la începutul sau sfârșitul documentelor lungi, în timp ce neglijează conținutul din mijloc. Acest fenomen “pierdut în mijloc” sugerează că aceste sisteme procesează informația în moduri foarte diferite de cele ale oamenilor, care pot menține atenția pe întregul document.
Aceste limitări subliniază o provocare centrală: deși LLM-urile excelează la recunoașterea și reproducerea pattern-urilor de limbaj, acest lucru nu înseamnă neapărat că înțeleg sensul sau contextul real al lumii.
Ce reprezintă inteligența?
Dezbaterea se reduce, în cele din urmă, la modul în care definim inteligența. Dacă inteligența este capacitatea de a genera limbaj coerent, de a rezolva probleme și de a se adapta la situații noi, atunci LLM-urile îndeplinesc deja acest standard. Cu toate acestea, dacă inteligența necesită conștientizare de sine, înțelegere reală sau experiență subiectivă, aceste sisteme încă nu ating acest nivel.
Dificultatea constă în faptul că nu avem o modalitate clară sau obiectivă de a măsura calități precum înțelegerea sau conștientizarea. Atât la oameni, cât și la mașini, le inferăm din comportament. Testul raței și testul Turing au oferit, odată, răspunsuri elegante, dar în era LLM-urilor, acestea nu mai sunt suficiente. Capabilitățile lor ne obligă să reevaluăm ce înseamnă, de fapt, inteligența și dacă definițiile noastre tradiționale țin pasul cu realitatea tehnologică.
Concluzia
Modelele de limbaj mari ne obligă să redefinim inteligența artificială. Pot imita raționamentul, pot genera idei și pot executa sarcini considerate, odinioară, unice pentru oameni. Cu toate acestea, le lipsește conștientizarea și fundamentarea care dau naștere gândirii umane adevărate. Ascensiunea lor ne obligă să ne întrebăm nu numai dacă mașinile acționează inteligent, ci și ce înseamnă, de fapt, inteligența.












