Connect with us

Lideri de opinie

Cum IA explicabilă îmbunătățește fiabilitatea și încrederea

mm

Pe măsură ce inteligența artificială (IA) se democratizează în întreprinderi, ea se încorporează încetul cu încetul în țesătura existenței noastre. Un aspect important al acestei democratizări este acela că utilizatorii finali ar trebui să poată înțelege pe deplin procesul și mecanismele pe care IA le utilizează pentru a ajunge la o concluzie sau modul în care funcționează pentru a oferi rezultatele dorite. Ca ființe umane, avem o nevoie profund înrădăcinată de a descoperi “de ce” și “cum” al oricărui fenomen, ceea ce a accelerat progresul nostru tehnologic. În contextul IA, această înțelegere este denumită “explicabilitate”.

De ce explicabilitatea este nevoia orei?

Mai mult ca niciodată, abordăm IA ca pe o “cutie neagră”, unde avem cunoștință doar de intrări și ieșiri, dar undeva procesele utilizate ne sunt pierdute. Acest problemă este exacerbată de faptul că algoritmii care alimentează cele mai populare forme de IA, cum ar fi sistemele de predicție complexe bazate pe învățare profundă și Procesarea Limbajului Natural (NLP), sunt foarte abstracte chiar și pentru cei mai experimentați practicieni.
Încredere și transparență: Pentru ca utilizatorii să aibă încredere în predicțiile IA, aceasta trebuie să aibă un anumit nivel de explicabilitate înăuntrul ei. De exemplu, dacă un medic trebuie să recomande un tratament pe baza predicțiilor IA, el/ea trebuie să aibă încredere în predicție. O bancă trebuie să aibă încredere deplină în decizia de a respinge sau aproba un împrumut și să poată justifica aceasta tuturor părților interesate. Un IA utilizat pentru selecție și angajare trebuie să demonstreze că mecanismele subiacente sunt corecte și echitabile pentru toți candidații.
Face IA mai umană și crește adoptarea: În raportul The state of AI in 2020 al Mckinsey, aflăm că un producător utilizează modele extrem de transparente pentru acceptarea de către lucrătorii din fabrică, care trebuie să aibă încredere în judecățile luate de IA cu privire la siguranța lor. Pentru adoptarea rapidă a IA, obținerea acordului părților interesate este principala piedică pentru scalarea de la soluții punctuale simple la nivelul întreprinderii și pentru a obține maximum de beneficii din investiția făcută. Acest lucru este alleviat în mare măsură dacă performanța este explicabilă pentru publicul larg. Din perspectivă business, explicabilitatea îmbunătățește experiența generală a utilizatorului și crește satisfacția clienților. Conform constatărilor unui sondaj realizat de IBM Institute for Business Value, 68% dintre cei mai importanți executivi cred că clienții vor cere mai multă explicabilitate din partea IA în următorii trei ani.
Descoperă prejudecăți și îmbunătățește performanța modelului: Un dezvoltator trebuie să știe cum să îmbunătățească performanța modelului și cum să-l depaneze și să-l ajusteze. Un cadru clar de explicabilitate este unul dintre cele mai importante instrumente pentru realizarea analizei exhaustive necesare.
Obține perspective mai clare și mai cuprinzătoare: O perspectivă completă de 360 de grade este necesară pentru a înțelege pe deplin orice prescripții făcute de IA. De exemplu, dacă IA este utilizată pentru luarea unei decizii de investiții, ar trebui să se cunoască și rațiunea din spatele acesteia, astfel încât să se poată transfera această învățare în alte domenii și să se înțeleagă și capcanele potențiale ale luării acelei decizii. O înțelegere puternică a modului în care funcționează IA va permite, de asemenea, decidenților să descopere noi cazuri de utilizare.
Reglementări și răspundere: Mai multe reglementări, cum ar fi GDPR, impun un drept la explicare, pentru a aborda problemele de răspundere care decurg din procesul decizional automatizat. În sisteme precum vehiculele autonome, dacă ceva merge prost și duce la pierderea de vieți și pagube, este nevoie de cunoașterea cauzei de bază, care va fi greu de identificat într-un sistem “cutie neagră”.

Cum poate fi IA mai explicabilă?

Sistemele de inteligență artificială explicabilă (XAI) sunt dezvoltate utilizând diferite tehnici care se concentrează fie pe explicarea modelului în ansamblu, fie pe explicarea raționamentului din spatele unei predicții individuale, cu ajutorul unui algoritm.
Majoritatea tehnicilor de explicabilitate se bazează pe:

  • Descompunerea unui model în componente individuale)
  • Vizualizarea predicțiilor modelului (de exemplu, dacă un model clasifică o mașină ca fiind de o anumită marcă, evidențiază partea care a determinat-o să o semnaleze ca atare)
  • Minarea explicațiilor (utilizarea tehnicilor de învățare automată pentru găsirea datelor relevante care explică predicția unui algoritm de inteligență artificială).

Într-o astfel de tehnică, numită modelare proxy, se utilizează un model mai simplu și mai ușor de înțeles, cum ar fi un arbore de decizie, pentru a reprezenta aproximativ modelul de IA mai complex. Explicațiile simple oferă o idee generală a modelului la un nivel înalt, dar pot suprima anumite nuanțe.
O altă abordare se numește “interpretabilitate prin design”. Această abordare pune constrângeri în proiectarea și antrenarea rețelei de IA într-un mod nou, care încearcă să construiască rețeaua în ansamblu din bucăți mai mici și mai simple, explicabile. Acest lucru implică un compromis între nivelul de acuratețe și explicabilitate și limitează anumite abordări din kit-ul de instrumente al specialistului în date. De asemenea, poate fi foarte intensiv din punct de vedere computațional.
Antrenarea și testarea IA pot utiliza, de asemenea, tehnici agnostice de verificare a datelor, cum ar fi modelul local interpretabil (LIME) și explicațiile aditive Shapley (SHAP), și acestea ar trebui să fie personalizate pentru a obține o acuratețe ridicată prin utilizarea scorului F, preciziei și a altor metrice. Și, desigur, toate rezultatele ar trebui să fie monitorizate și verificate utilizând o varietate largă de date. Utilizând LIME, de exemplu, organizațiile pot crea modele temporare care imită predicțiile algoritmilor netransparenti, cum ar fi învățarea automată. Aceste modele LIME pot crea apoi o varietate de permutări pe baza unui anumit set de date și a ieșirii corespunzătoare, care pot fi utilizate ulterior pentru a antrena modele simple și mai interpretabile, împreună cu liste complete de explicații pentru fiecare decizie și/sau predicție. Cadru SHAP, care are fundația în teoria jocurilor și, în special, în teoria jocurilor cooperativ, este un model care combină alocarea optimă a creditului cu explicații locale, utilizând valorile Shapley originale din teoria jocurilor și descendenții lor.

Operațiuni cu principii

La un nivel mai strategic, cu toate acestea, cadrele de fiabilitate a IA ar trebui să incorporeze un ansamblu larg de principii menite să asigure rezultate corespunzătoare atât la începutul implementării, cât și pe parcursul timpului, pe măsură ce modelele evoluează în prezența unor circumstanțe în schimbare. Ca minimum, aceste cadre ar trebui să includă lucruri precum:

  • Detectarea prejudecăților – toate seturile de date ar trebui să fie curățate de prejudecăți și atribute discriminatorii și apoi să primească greutatea și discreția corespunzătoare atunci când sunt aplicate modelului de antrenare;
  • Implicarea umană – operatorii ar trebui să poată investiga și interpreta ieșirile algoritmilor în orice moment, în special atunci când se utilizează modele pentru aplicarea legii și protejarea libertăților civile;
  • Justificarea – toate predicțiile trebuie să poată rezista scrutinului, ceea ce, prin natura sa, necesită un nivel ridicat de transparență pentru a permite observatorilor externi să evalueze procesele și criteriile utilizate pentru a produce rezultate;
  • Reproducerea – modelele de IA fiabile trebuie să fie consecvente în predicțiile lor și să prezinte niveluri ridicate de stabilitate atunci când se confruntă cu date noi.

Dar XAI nu ar trebui să fie privit doar ca un mijloc de a îmbunătăți profitabilitatea, ci și de a aduce răspunderea pentru a asigura că instituțiile pot explica și justifica efectele creațiilor lor asupra societății în ansamblu.

Balakrishna, cunoscut în mod popular sub numele de Bali D.R., este șeful departamentului de Inteligență Artificială și Automatizare la Infosys unde conduce atât automatizarea internă pentru Infosys, cât și oferă servicii de automatizare independente prin utilizarea de produse pentru clienți. Bali a fost la Infosys pentru mai mult de 25 de ani și a ocupat roluri de vânzări, management de programe și livrare în diferite geografii și verticale industriale.