Lideri de opinie
Cum AI-ul explicabil construiește încredere și responsabilitate

Companiile au sărit déjà cu capul în adoptarea inteligenței artificiale, grăbindu-se să implementeze chatbot-uri, generatoare de conținut și instrumente de sprijin pentru decizii în întreaga lor operațiune. Conform McKinsey, 78% din companii utilizează inteligența artificială în cel puțin o funcție de business.
Frenzia de implementare este înțeleasă — toată lumea vede valoarea potențială. Dar în această grabă, multe organizații ignoră faptul că toate tehnologiile bazate pe rețele neuronale, inclusiv toate sistemele LLM și generative AI utilizate astăzi și în viitorul previzibil, au o deficiență semnificativă: sunt imprevizibile și în final incontrolabile.
Unii au învățat că există consecințe reale ca urmare a acestui fapt. La un dealer Chevrolet care a implementat un chatbot pe site-ul său, un client a convins chatbot-ul alimentat de ChatGPT să-i vândă un Chevrolet Tahoe de 58.195 de dolari pentru doar 1 dolar. Un alt client a solicitat aceluiași chatbot să scrie un script Python pentru ecuații complexe de dinamică a fluidelor, ceea ce a și făcut. Dealerul a dezactivat rapid boturile după ce aceste incidente au devenit virale.
Anul trecut, Air Canada a pierdut în instanță atunci când a susținut că chatbot-ul său, care a oferit unui pasager informații inexacte despre o reducere pentru deces, „este o entitate juridică separată care este responsabilă pentru propriile acțiuni”.
Această imprevizibilitate provine din arhitectura fundamentală a LLM-urilor. Sunt atât de mari și complexe încât este imposibil să înțelegem cum ajung la anumite răspunsuri sau să prezicem ce vor genera până nu produc o ieșire. Cele mai multe organizații răspund la această problemă de fiabilitate fără a o recunoaște pe deplin.
Soluția de bun simț este să se verifice rezultatele inteligenței artificiale manual, ceea ce funcționează, dar limitează drastic potențialul tehnologiei. Când inteligența artificială este relegată la a fi un asistent personal — redactând texte, luând minute de ședință, rezumând documente și ajutând la codare — oferă câștiguri modeste de productivitate. Nu suficient pentru a revoluționa economia.
Adevăratele beneficii ale inteligenței artificiale vor apărea atunci când vom înceta să o utilizăm pentru a asista la locurile de muncă existente și, în schimb, vom reconfigura întregi procese, sisteme și companii pentru a utiliza inteligența artificială fără implicarea umană la fiecare pas. Luați, de exemplu, procesarea creditelor: dacă o bancă oferă ofițerilor de credit asistenți inteligenți artificiali pentru a rezuma cererile, aceștia ar putea lucra cu 20-30% mai repede. Dar implementarea inteligenței artificiale pentru a gestiona întregul proces de decizie (cu precauții adecvate) ar putea reduce costurile cu peste 90% și elimina aproape tot timpul de procesare. Acesta este diferența dintre îmbunătățirea incrementală și transformare.
Calea către implementarea fiabilă a inteligenței artificiale
Exploaterea pe deplin a potențialului inteligenței artificiale fără a cădea victimă imprevizibilității sale necesită o combinație sofisticată de abordări tehnice și gândire strategică. În timp ce mai multe metode actuale oferă soluții parțiale, fiecare are limitări semnificative.
Unele organizații încearcă să atenueze problemele de fiabilitate prin împingerea sistemului — dirijând subtil comportamentul inteligenței artificiale în direcții dorite, astfel încât să răspundă în moduri specifice la anumite intrări. Cercetătorii Anthropic au demonstrat fragilitatea acestei abordări, identificând o „caracteristică a Podului de Aur” în rețeaua neurală a lui Claude și, prin amplificarea artificială a acesteia, au cauzat lui Claude o criză de identitate. Atunci când a fost întrebat despre forma sa fizică, în loc să recunoască că nu are niciuna, Claude a afirmat că este Podul de Aur însuși. Acest experiment a arătat cât de ușor poate fi alterat funcționarea de bază a unui model și că fiecare împingere reprezintă un compromis, posibil îmbunătățind un aspect al performanței, dar degradând altele.
O altă abordare este să se monitorizeze inteligența artificială cu ajutorul altei inteligențe artificiale. Deși această abordare stratificată poate detecta unele erori, introduce complexitate suplimentară și, în continuare, nu atinge fiabilitatea cuprinzătoare. Barierelor hardcodate sunt o intervenție mai directă, cum ar fi blocarea răspunsurilor care conțin anumite cuvinte cheie sau modele, cum ar fi ingrediente pentru arme. Deși eficiente împotriva problemelor cunoscute, aceste bariere nu pot anticipa ieșiri problematice noi care apar din aceste sisteme complexe.
O abordare mai eficientă este construirea unor procese centrate pe inteligența artificială care pot funcționa autonom, cu supravegherea umană poziționată strategic pentru a detecta probleme de fiabilitate înainte de a cauza probleme reale. Nu ați dori ca inteligența artificială să aprobe sau să respingă direct cererile de credit, dar inteligența artificială ar putea efectua o evaluare inițială pentru operatorii umani să o revizuiască. Acest lucru poate funcționa, dar se bazează pe vigilența umană pentru a detecta greșelile inteligenței artificiale și subminează potențialele câștiguri de eficiență din utilizarea inteligenței artificiale.
Construirea pentru viitor
Aceste soluții parțiale indică spre o abordare mai cuprinzătoare. Organizațiile care reevaluează fundamental modul în care își desfășoară activitatea, în loc să îmbunătățească doar procesele existente cu asistență de inteligență artificială, vor obține cel mai mare avantaj. Dar inteligența artificială nu ar trebui să fie niciodată ultimul pas într-un proces sau decizie cu risc ridicat, așa că ce este calea cea mai bună spre viitor?
În primul rând, inteligența artificială construiește un proces reproductibil care va livra în mod fiabil și transparent rezultate consistente. În al doilea rând, oamenii verifică procesul pentru a se asigura că înțeleg cum funcționează și că intrările sunt adecvate. În final, procesul rulează autonom — fără a utiliza inteligență artificială — cu revizuiri periodice ale rezultatelor de către oameni.
Luați în considerare industria asigurărilor. Abordarea convențională ar adăuga asistenți inteligenți artificiali pentru a ajuta procesorii de reclamații să lucreze mai eficient. O abordare mai revoluționară ar utiliza inteligența artificială pentru a dezvolta unelte noi — cum ar fi viziunea computerizată care analizează fotografii cu daune sau modele îmbunătățite de detectare a fraudei care identifică modele suspecte — și apoi să combine aceste unelte în sisteme automate guvernate de reguli clare și inteligibile. Oamenii ar proiecta și monitoriza aceste sisteme, în loc să proceseze reclamații individuale.
Această abordare menține supravegherea umană la joncțiunea critică unde contează cel mai mult: proiectarea și validarea sistemului în sine. Permite câștiguri de eficiență exponențială, eliminând în același timp riscul ca imprevizibilitatea inteligenței artificiale să ducă la rezultate dăunătoare în cazuri individuale.
O inteligență artificială ar putea identifica potențiali indicatori ai capacității de rambursare a creditelor în datele tranzacționale, de exemplu. Experții umani ar putea evalua apoi acești indicatori pentru corectitudine și construi modele explicite și inteligibile pentru a confirma puterea lor predictivă.
Această abordare a inteligenței artificiale explicabile va crea o diviziune mai clară între organizațiile care utilizează inteligența artificială superficial și cele care transformă operațiunile lor în jurul acesteia. Ultimii vor lua din ce în ce mai mult avânt în industriile lor, putând oferi produse și servicii la puncte de preț pe care concurenții lor nu le pot egala.
Spre deosebire de inteligența artificială „cutie neagră”, sistemele de inteligență artificială explicabilă asigură menținerea supravegherii umane semnificative asupra aplicării tehnologiei, creând un viitor în care inteligența artificială sporește potențialul uman, în loc să înlocuiască doar munca umană.












