Lideri de opinie
Dacă AI-ul dvs. halucinează, nu învinovățiți AI-ul

“Halucinațiile” AI – acele răspunsuri convingătoare, dar false – atrag o mare atenție din partea mass-media, cum a fost recent articolul din New York Times, AI Is Getting More Powerful, But Its Hallucinations Are Getting Worse. Halucinațiile sunt un pericol real atunci când aveți de-a face cu un chatbot pentru consumatori. În contextul aplicațiilor comerciale ale AI, este o preocupare și mai gravă. Din fericire, ca lider tehnologic în afaceri, am mai mult control asupra acestuia. Pot să mă asigur că agentul are datele corecte pentru a produce un răspuns semnificativ.
Pentru că aceasta este problema reală. În afaceri, nu există nicio scuză pentru halucinații ale AI. Încetați să învinovățiți AI. Învinovățiți-vă pentru că nu utilizați AI în mod corespunzător.
Când uneltele de AI generativ halucinează, ele fac ceea ce sunt proiectate să facă – oferă cel mai bun răspuns pe care îl pot, pe baza datelor disponibile. Când inventează lucruri, producând un răspuns care nu are bază în realitate, este pentru că le lipsesc datele relevante, nu le pot găsi sau nu înțeleg întrebarea. Da, noile modele, cum ar fi o3 și o4-mini de la OpenAI, halucinează mai mult, acționând și mai “creativ” atunci când nu au un răspuns bun la întrebarea care le-a fost pusă. Da, uneltele mai puternice pot halucina mai mult – dar pot produce și rezultate mai puternice și mai valoroase, dacă le punem în condiții de succes.
Dacă nu doriți ca AI-ul dvs. să halucineze, nu-l lăsați să moară de foame. Hrăniți AI-ul cu cele mai bune și mai relevante date pentru problema pe care doriți să o rezolve, și nu va fi tentat să se abată de la drum.
Chiar și atunci, atunci când lucrați cu orice instrument de AI, vă recomand să păstrați abilitățile de gândire critică intacte. Rezultatele livrate de agenții de AI pot fi productive și plăcute, dar scopul nu este să vă deconectați creierul și să lăsați software-ul să facă toată gândirea pentru dvs. Continuați să puneți întrebări. Când un agent de AI vă oferă un răspuns, puneți întrebări despre acel răspuns, pentru a vă asigura că are sens și este susținut de date. Dacă da, ar trebui să fie un semn încurajator că merită să vă petreceți timpul pentru a pune întrebări suplimentare.
Cu cât puneți mai multe întrebări, cu atât veți obține insight-uri mai bune.
De ce apar halucinațiile
Nu este nicio mister. AI-ul nu încearcă să vă mintă. Fiecare model de limbaj mare (LLM) AI este, în esență, o previziune a următorului cuvânt sau număr, pe baza probabilității.
La un nivel înalt, ceea ce se întâmplă aici este că LLM-urile construiesc propoziții și paragrafe, un cuvânt după altul, previzionând următorul cuvânt care ar trebui să apară în propoziție, pe baza miliardelor de alte exemple din datele de antrenament. Strămoșii LLM-urilor (în afara lui Clippy) au fost prompturi de completare automate pentru mesaje de text și cod de calculator, unelte de traducere automată a limbajului uman și alte sisteme lingvistice probabilistice. Cu o putere de calcul mai mare și antrenate pe volume de date la scară de internet, aceste sisteme au devenit “inteligente” suficient de mult pentru a putea purta o conversație completă prin chat, așa cum a învățat lumea cu introducerea ChatGPT.
Cei care critică AI-ul spun că acesta nu este același lucru cu “inteligența” reală, ci doar un software care poate distila și regurgita inteligența umană care i-a fost furnizată. Îi cereți să rezume date într-un raport scris și el imită modul în care alți scriitori au rezumat date similare.
Acest lucru mi se pare a fi un argument academic, atâta timp cât datele sunt corecte și analiza este utilă.
Ce se întâmplă dacă AI-ul nu are date? Completează spațiile goale. Uneori este amuzant. Uneori este un dezastru total.
Când construiți agenți de AI, acesta este un risc de 10 ori mai mare. Agenții sunt supuși să ofere insight-uri acționabile, dar ei iau mai multe decizii pe parcurs. Ei execută sarcini multietapă, unde rezultatul etapei 1 informează etapele 2, 3, 4, 5, … 10 … 20. Dacă rezultatele etapei 1 sunt incorecte, eroarea va fi amplificată, făcând ieșirea la etapa 20 și mai rea. În special, deoarece agenții pot lua decizii și pot sări peste etape.
Dacă este făcut corect, agenții realizează mai mult pentru afacerile care îi implementează. Cu toate acestea, ca manageri de produse de AI, trebuie să recunoaștem riscul mai mare care vine odată cu recompensa mai mare.
Ceea ce a făcut echipa noastră. Am văzut riscul și l-am abordat. Nu am construit doar un robot elegant; ne-am asigurat că rulează pe datele corecte. Iată ce credem că am făcut bine:
- Construiți agentul pentru a pune întrebări corecte și verificați dacă are datele corecte. Asigurați-vă că procesul inițial de introducere a datelor în agent este mai deterministic, mai puțin “creativ”. Doriți ca agentul să spună când nu are datele corecte și să nu continue la următoarea etapă, în loc să inventeze date.
- Structurați un plan de joc pentru agentul dvs. – asigurați-vă că nu inventează un nou plan de fiecare dată, ci are o abordare semi-structurată. Structura și contextul sunt extrem de importante în etapa de colectare și analiză a datelor. Puteți lăsa agentul să se relaxeze și să acționeze mai “creativ” atunci când are faptele și este gata să scrie rezumatul, dar mai întâi, asigurați-vă că are faptele corecte.
- Construiți un instrument de calitate pentru a extrage datele. Acesta ar trebui să fie mai mult decât doar un apel API. Luați timpul necesar pentru a scrie codul (oamenii încă fac asta) care colectează cantitatea și varietatea de date care vor fi colectate, integrând verificări de calitate în proces.
- Faceți agentul să-și arate munca. Agentul ar trebui să-și citeze sursele și să lege către locul unde utilizatorul poate verifica datele, din sursa originală, și să le exploreze mai departe. Fără nicio înșelăciune!
- Bariera de protecție: Gândiți-vă la ce ar putea merge prost și construiți protecții împotriva erorilor pe care nu le puteți permite în niciun caz. În cazul nostru, acest lucru înseamnă că, atunci când agentul însărcinat cu analiza unei piețe nu are date – prin care înțeleg datele noastre Similarweb, nu vreo sursă de date aleatorie extrasă de pe web – asigurarea că nu inventează ceva este o barieră de protecție esențială. Mai bine pentru agent să nu poată răspunde decât să ofere un răspuns fals sau înșelător.
Am integrat aceste principii în lansarea noastră recentă a celor trei agenți noi, cu mai multe care urmează. De exemplu, agentul nostru de pregătire pentru întâlniri AI pentru vânzători nu cere doar numele companiei țintă, ci și detalii despre scopul întâlnirii și cu cine este, pregătindu-l să ofere un răspuns mai bun. Nu trebuie să ghicească, deoarece utilizează o mulțime de date despre companii, date digitale și profiluri executive pentru a-și informa recomandările.
Sunt agenții noștri perfecti? Nu. Nimeni nu creează încă AI perfect, nici măcar cele mai mari companii din lume. Dar a aborda problema este mult mai bine decât a o ignora.
Doriți să aveți mai puține halucinații? Ofereți-vă AI-ului o bucată frumoasă de date de calitate.
Dacă halucinează, poate că nu AI-ul are nevoie de reparare. Poate că abordarea dvs. de a profita de aceste capacități puternice noi, fără a pune timpul și efortul necesare pentru a le face corect, este cea care are nevoie de corecție.












