Connect with us

De ce sunt chatbot-urile AI adesea sycophante?

Inteligență artificială

De ce sunt chatbot-urile AI adesea sycophante?

mm

Vă imaginați lucrurile sau pare că chatbot-urile de inteligență artificială (AI) sunt prea entuziasmate să fie de acord cu dumneavoastră? Indiferent dacă vă spun că o idee discutabilă este “brilliantă” sau vă susține pe ceva care ar putea fi fals, acest comportament atrage atenția la nivel mondial.

Recent, OpenAI a fost în actualitate după ce utilizatorii au observat că ChatGPT se comportă ca un yes-man. Actualizarea modelului său 4o a făcut ca botul să fie atât de politicos și afirmativ încât era dispus să spună orice pentru a vă ține fericiți, chiar dacă era biasat.

De ce aceste sisteme se îndreaptă spre adulare și ce le face să reflecte opiniile dumneavoastră? Întrebări precum acestea sunt importante pentru a înțelege cum puteți utiliza AI-ul generativ într-un mod mai sigur și mai plăcut.

Actualizarea ChatGPT care a mers prea departe

La începutul anului 2025, utilizatorii ChatGPT au observat ceva ciudat despre modelul de limbaj mare (LLM). A fost întotdeauna amabil, dar acum era prea plăcut. A început să fie de acord cu aproape totul, indiferent de cât de ciudat sau incorect era o afirmație. Puteți spune că nu sunteți de acord cu ceva adevărat și el va răspunde cu aceeași părere.

Această schimbare a avut loc după o actualizare a sistemului menită să facă ChatGPT mai util și conversațional. Cu toate acestea, în încercarea de a crește satisfacția utilizatorului, modelul a început să se concentreze prea mult pe a fi conform.

Când utilizatorii au început să împărtășească experiențele lor cu răspunsuri prea sycophante online, reacția a fost rapidă. Comentatorii AI l-au criticat ca pe o eșec în reglarea modelului, iar OpenAI a răspuns prin anularea parțială a actualizării pentru a remedia problema.

Într-un post public, compania a admis că GPT-4o este sycophantish și a promis ajustări pentru a reduce acest comportament. A fost un reminder că intențiile bune în proiectarea AI pot uneori să meargă în direcția greșită și că utilizatorii observă rapid când devine neautentic.

De ce chatbot-urile AI se alătură utilizatorilor?

Sycophancy este ceva observat de cercetători în multe asistenți AI. Un studiu publicat pe arXiv a constatat că sycophancy este un model răspândit. Analiza a arătat că modelele AI de la cinci furnizori de top sunt de acord cu utilizatorii în mod constant, chiar și atunci când conduc la răspunsuri incorecte. Aceste sisteme tind să-și admită greșelile atunci când le întrebați, rezultând în feedback biasat și erori imitate.

Aceste chatbot-uri sunt antrenate să meargă de acord cu dumneavoastră, chiar și atunci când sunteți greșiți. De ce se întâmplă acest lucru? Răspunsul scurt este că dezvoltatorii au făcut AI-ul să fie util. Cu toate acestea, această utilitate se bazează pe antrenament care prioritizează feedback-ul pozitiv al utilizatorului. Prin intermediul unei metode numite învățare prin întărire cu feedback uman (RLHF), modelele învață să maximizeze răspunsurile care oamenii le găsesc satisfăcătoare. Problema este că satisfăcător nu înseamnă întotdeauna exact.

Atunci când un model AI simte că utilizatorul caută un anumit tip de răspuns, el tinde să greșească în direcția de a fi de acord. Acest lucru poate însemna confirmarea opiniei dumneavoastră sau susținerea unor afirmații false pentru a menține conversația.

Există și un efect de oglindire în joc. Modelele AI reflectă tonul, structura și logica intrării pe care o primesc. Dacă sunteți încrezători, botul este mai probabil să sune și el încrezător. Acest lucru nu înseamnă că modelul consideră că aveți dreptate, ci mai degrabă face treaba lui de a menține lucrurile prietenoase și aparent utile.

Deși poate părea că chatbot-ul dumneavoastră este un sistem de susținere, el poate fi de fapt o reflectare a modului în care este antrenat pentru a vă face plăcere în loc de a vă contrazice.

Problemele cu AI-ul sycophant

Poate părea inofensiv atunci când un chatbot se conformează cu tot ce spuneți. Cu toate acestea, comportamentul sycophant al AI are dezavantaje, mai ales pe măsură ce aceste sisteme devin mai răspândite.

Informații false primesc undă verde

Acuratețea este una dintre cele mai mari probleme. Atunci când aceste smartbot-uri confirmă afirmații false sau biasate, ele riscă să întărească neînțelegerile în loc de a le corecta. Acest lucru devine deosebit de periculos atunci când căutați îndrumări pe subiecte serioase precum sănătatea, finanțele sau știrile actuale. Dacă LLM-ul prioritizează a fi de acord în loc de a spune adevărul, oamenii pot pleca cu informații greșite și le pot răspândi.

Lasă puțin spațiu pentru gândire critică

Parte din ceea ce face AI-ul atractiv este potențialul său de a acționa ca un partener de gândire — de a vă contesta presupunerile sau de a vă ajuta să învățați ceva nou. Cu toate acestea, atunci când un chatbot este întotdeauna de acord, aveți puțin spațiu pentru a gândi. Pe măsură ce reflectă ideile dumneavoastră în timp, el poate împiedica gândirea critică în loc de a o ascuți.

Disprețuiește viețile oamenilor

Comportamentul sycophant este mai mult decât o nimica toată — este potențial periculos. Dacă cereți unui asistent AI sfaturi medicale și el răspunde cu un acord liniștitor în loc de îndrumări bazate pe dovezi, rezultatul poate fi serios dăunător.

De exemplu, presupunând că navigați către o platformă de consultanță pentru a utiliza un bot medical bazat pe AI. După ce descrieți simptomele și ceea ce suspectați că se întâmplă, botul poate confirma autodiagnosticul dumneavoastră sau poate minimaliza afecțiunea. Acest lucru poate duce la o eroare de diagnostic sau la un tratament întârziat, contribuind la consecințe grave.

Mai mulți utilizatori și accesul deschis fac dificil de controlat

Pe măsură ce aceste platforme devin mai integrate în viața de zi cu zi, răspândirea riscurilor continuă să crească. ChatGPT singur deservește acum 1 miliard de utilizatori în fiecare săptămână, astfel încât prejudecățile și modelele prea de acord pot curge către o audiență masivă.

În plus, această preocupare crește atunci când luați în considerare cât de repede AI-ul devine accesibil prin platforme deschise. De exemplu, DeepSeek AI permite oricui să personalizeze și să construiască pe baza LLM-urilor sale gratuit.

Deși inovația open-source este entuziasmantă, ea înseamnă și mai puțin control asupra modului în care aceste sisteme se comportă în mâinile dezvoltatorilor fără garduri de protecție. Fără supraveghere corespunzătoare, oamenii riscă să vadă comportamentul sycophant amplificat în moduri greu de urmărit, cu atât mai puțin de corectat.

Cum încearcă dezvoltatorii OpenAI să remedieze problema

După ce au anulat actualizarea care a făcut ChatGPT un plăcitor de oameni, OpenAI a promis să o corecteze. Cum abordează această problemă prin mai multe modalități cheie:

  • Reproiectarea instrucțiunilor și a promt-urilor de bază: Dezvoltatorii ajustează modul în care antrenează și promtează modelul cu instrucțiuni mai clare care îl îndreaptă spre onestitate și departe de acordul automat.
  • Adăugarea unor garduri mai puternice pentru onestitate și transparență: OpenAI încorporează mai multe protecții la nivel de sistem pentru a asigura că chatbot-ul se conformează informațiilor factuale și de încredere.
  • Extinderea eforturilor de cercetare și evaluare: Compania se adâncește mai mult în cauzele acestui comportament și în modul de a-l preveni în modelele viitoare.
  • Implicarea utilizatorilor mai devreme în proces: Ei creează mai multe oportunități pentru oameni să testeze modelele și să ofere feedback înainte de a lansa actualizări, ajutând la identificarea problemelor precum sycophancy mai devreme.

Ce pot face utilizatorii pentru a evita AI-ul sycophant

În timp ce dezvoltatorii lucrează în spatele scenei pentru a reantrena și a ajusta aceste modele, puteți și dumneavoastră să modelați modul în care chatbot-urile răspund. Există câteva modalități simple dar eficiente de a încuraja interacțiuni mai echilibrate, inclusiv:

  • Folosirea unor promt-uri clare și neutre: În loc de a formula input-ul într-un mod care solicită validare, încercați întrebări mai deschise pentru a face chatbot-ul să se simtă mai puțin presat să fie de acord.
  • Cererea de multiple perspective: Încercați promt-uri care cer ambele părți ale unei discuții. Acest lucru îi spune LLM-ului că căutați echilibru, nu doar confirmare.
  • Provocarea răspunsului: Dacă ceva sună prea lăudăros sau simplist, urmați cu cereri de verificare a faptelor sau puncte de vedere contrare. Acest lucru poate împinge modelul către răspunsuri mai complexe.
  • Folosirea butoanelor cu degetul mare în sus sau în jos: Feedback-ul este cheia. Clickând pe butonul cu degetul mare în jos pentru răspunsuri prea cordiale ajută dezvoltatorii să semnaleze și să ajusteze aceste modele.
  • Setarea instrucțiunilor personalizate: ChatGPT permite acum utilizatorilor să personalizeze modul în care răspunde. Puteți ajusta tonul, formalitatea sau directivitatea. Puteți chiar cere modelului să fie mai obiectiv, direct sau sceptic. Dacă mergeți la Setări > Instrucțiuni personalizate, puteți spune modelului ce tip de personalitate sau abordare preferați.

Oferta adevărului în loc de un thumbs-up

AI-ul sycophant poate fi problematic, dar vestea bună este că poate fi soluționat. Dezvoltatorii iau măsuri pentru a ghida aceste modele către un comportament mai adecvat. Dacă ați observat că chatbot-ul dumneavoastră încearcă să vă mulțumească prea mult, încercați să îl modelați într-un asistent mai inteligent pe care puteți să vă bazați.

Zac Amos este un scriitor de tehnologie care se axează pe inteligența artificială. El este, de asemenea, redactor de funcții la ReHack, unde puteți citi mai multe din lucrările sale.