Connect with us

Oprește AI-ul de a spune povești: Un ghid pentru prevenirea halucinațiilor

Lideri de opinie

Oprește AI-ul de a spune povești: Un ghid pentru prevenirea halucinațiilor

mm

AI revoluționează modul în care funcționează aproape toate industriile. Ne face mai eficienți, mai productivi și – atunci când este implementat corect – mai buni în ceea ce facem. Dar pe măsură ce crește rapid dependența noastră de această tehnologie nouă, trebuie să ne amintim de un simplu fapt: AI nu este infailibil. Rezultatele sale nu ar trebui luate la valoare nominală, deoarece, la fel ca oamenii, AI poate face greșeli.

Le numim pe aceste greșeli “halucinații AI”. Asemenea erori pot varia de la a răspunde incorect la o problemă de matematică până la a oferi informații inexacte despre politici guvernamentale. În industriile puternic reglementate, halucinațiile pot duce la amenzi costisitoare și probleme legale, fără a mai menționa clienții nemulțumiți.

Frecvența halucinațiilor AI ar trebui să fie, prin urmare, un motiv de îngrijorare: se estimează că modelele moderne de limbaj mare (LLM) halucinează undeva între 1% și 30% din timp. Acest lucru duce la sute de răspunsuri false generate zilnic, ceea ce înseamnă că întreprinderile care doresc să exploateze această tehnologie trebuie să fie extrem de selective atunci când aleg care instrumente să implementeze.

Să explorăm de ce apar halucinațiile AI, ce este în joc și cum le putem identifica și corecta.

Gunoi în, gunoi afară

Vă amintiți jocul “telefon” din copilărie? Cum fraza de început se deforma pe măsură ce trecea de la jucător la jucător, rezultând într-o declarație complet diferită până când a ajuns înapoi la cerc?

Modul în care AI învață din intrările sale este similar. Răspunsurile generate de LLM sunt la fel de bune ca informațiile pe care le primesc, ceea ce înseamnă că contextul incorect poate duce la generarea și diseminarea informațiilor false. Dacă un sistem AI este construit pe date inexacte, învechite sau cu prejudecăți, atunci ieșirile sale vor reflecta acest lucru.

Prin urmare, un LLM este la fel de bun ca și intrările sale, mai ales atunci când lipsește intervenția sau supravegherea umană. Pe măsură ce se răspândesc soluțiile AI mai autonome, este critic să furnizăm instrumentelor contextul de date corect pentru a evita provocarea halucinațiilor. Avem nevoie de o pregătire riguroasă a acestor date și/sau de capacitatea de a ghida LLM-urile astfel încât să răspundă numai din contextul oferit, și nu să extragă informații de pe internet.

De ce contează halucinațiile?

Pentru afacerile care se adresează clienților, acuratețea este totul. Dacă angajații se bazează pe AI pentru sarcini precum sintetizarea datelor clienților sau răspunsurile la întrebările clienților, ei trebuie să aibă încredere că răspunsurile generate de astfel de instrumente sunt exacte.

Altfel, afacerile riscă să-și strice reputația și loialitatea clienților. Dacă clienții primesc răspunsuri insuficiente sau false de la un chatbot, sau dacă sunt lăsați să aștepte în timp ce angajații verifică ieșirile chatbot-ului, ei pot duce afacerile lor în altă parte. Oamenii nu ar trebui să se îngrijoreze cu privire la faptul că afacerile cu care interacționează le oferă informații false – ei doresc suport rapid și fiabil, ceea ce înseamnă că obținerea acestor interacțiuni corecte este de cea mai mare importanță.

Liderii de afaceri trebuie să-și facă temeinic datoria atunci când aleg instrumentul AI potrivit pentru angajații lor. AI ar trebui să elibereze timp și energie pentru personalul de a se concentra pe sarcini de valoare mai mare; investiția într-un chatbot care necesită o supraveghere umană constantă înfrânge întregul scop al adoptării. Dar existența halucinațiilor este cu adevărat atât de proeminentă sau termenul este pur și simplu suprautilizat pentru a identifica orice răspuns pe care îl considerăm incorect?

Combăterea halucinațiilor AI

Luați în considerare: Teoria dinamică a sensului (DMT), conceptul că o înțelegere între două persoane – în acest caz, utilizatorul și AI-ul – sunt schimbate. Dar limitările limbajului și cunoașterii subiectelor cauzează o nealiniere în interpretarea răspunsului.

În cazul răspunsurilor generate de AI, este posibil ca algoritmii subiacenți să nu fie încă pe deplin echipați pentru a interpreta sau genera text într-un mod care să se alinieze cu așteptările noastre ca oameni. Această discrepanță poate duce la răspunsuri care pot părea exacte la suprafață, dar care, în cele din urmă, lipsesc de profunzime sau nuanță necesare pentru o adevărată înțelegere.

Mai mult, majoritatea LLM-urilor cu scop general extrag informații numai din conținutul disponibil public pe internet. Aplicațiile enterprise ale AI funcționează mai bine atunci când sunt informate de date și politici specifice unor industrii și afaceri individuale. Modelele pot fi, de asemenea, îmbunătățite cu feedback uman direct – în special soluții agențice proiectate pentru a răspunde la ton și sintaxă.

Asemenea instrumente ar trebui, de asemenea, testate cu strictețe înainte de a deveni orientate către consumatori. Acesta este un aspect critic al prevenirii halucinațiilor AI. Întregul flux ar trebui testat folosind conversații bazate pe tururi cu LLM-ul jucând rolul unei persoane. Acest lucru permite afacerilor să presupună mai bine succesul general al conversațiilor cu un model AI înainte de a-l lansa în lume.

Este esențial atât pentru dezvoltatorii, cât și pentru utilizatorii tehnologiei AI să rămână conștienți de teoria dinamică a sensului în răspunsurile pe care le primesc, precum și de dinamica limbajului folosit în intrare. Amintiți-vă, contextul este cheia. Și, ca oameni, majoritatea contextului nostru este înțeles prin mijloace neverbale, fie prin limbajul corpului, tendințele sociale – chiar și tonul nostru. Ca oameni, avem potențialul de a halucina în răspuns la întrebări. Dar, în versiunea noastră curentă de AI, înțelegerea noastră om-la-om nu este atât de ușor contextualizată, așa că trebuie să fim mai critici cu privire la contextul pe care îl oferim în scris.

Să spunem – nu toate modelele AI sunt create egale. Pe măsură ce tehnologia se dezvoltă pentru a finaliza sarcini din ce în ce mai complexe, este crucial pentru afacerile care se pregătesc pentru implementare să identifice instrumente care vor îmbunătăți interacțiunile și experiențele clienților, și nu le vor dăuna.

Încărcătura nu este doar pe furnizorii de soluții pentru a se asigura că au făcut tot ce este în puterea lor pentru a minimiza șansa de a apărea halucinații. Cumpărătorii potențiali au, de asemenea, un rol de jucat. Prin prioritizarea soluțiilor care sunt riguros testate și antrenate și care pot învăța din date proprietare (în loc de orice și totul de pe internet), afacerile pot face cel mai bun lucru din investițiile lor în AI pentru a-și pregăti angajații și clienții pentru succes.

Dan Balaceanu, Chief Product Officer la DRUID AI, are experiență în gestionarea departamentelor și proceselor de dezvoltare din cadrul organizațiilor enterprise. El este un arhitect de soluții și manager de proiect tehnic foarte competent, cu peste 15 ani de experiență în conducerea proiectelor de dezvoltare și implementare de dimensiuni medii, cu colectarea cerințelor clienților, analiza sistemelor, dezvoltarea de aplicații și testare, în echipe axate pe client.