ciot Ce este IA explicabilă? - Unite.AI
Conectează-te cu noi
Masterclass AI:

AI 101

Ce este IA explicabilă?

Actualizat on
Imagine: DeepMind pe Unsplash

Pe măsură ce inteligența artificială (AI) devine mai complexă și adoptată pe scară largă în societate, unul dintre cele mai critice seturi de procese și metode este explicabil (AI), denumit uneori XAI. 

IA explicabilă poate fi definită ca:

  • Un set de procese și metode care ajută utilizatorii umani să înțeleagă și să aibă încredere în rezultatele algoritmilor de învățare automată. 

După cum puteți ghici, această explicabilitate este incredibil de importantă, deoarece algoritmii AI preiau controlul asupra multor sectoare, ceea ce vine cu riscul de părtinire, algoritmi defecte și alte probleme. Obținând transparență cu explicabilitate, lumea poate valorifica cu adevărat puterea AI. 

AI explicabilă, așa cum sugerează și numele, ajută la descrierea unui model AI, impactul său și potențialele părtiniri. De asemenea, joacă un rol în caracterizarea acurateței modelului, echității, transparenței și a rezultatelor în procesele de luare a deciziilor bazate pe inteligență artificială. 

Organizațiile de astăzi bazate pe inteligență artificială ar trebui să adopte întotdeauna procese explicabile de inteligență artificială pentru a ajuta la construirea încrederii și a încrederii în modelele de inteligență artificială din producție. AI explicabilă este, de asemenea, cheia pentru a deveni o companie responsabilă în mediul AI de astăzi.

Deoarece sistemele AI de astăzi sunt atât de avansate, oamenii efectuează de obicei un proces de calcul pentru a retrace modul în care algoritmul a ajuns la rezultatul său. Acest proces devine o „cutie neagră”, ceea ce înseamnă că este imposibil de înțeles. Când aceste modele inexplicabile sunt dezvoltate direct din date, nimeni nu poate înțelege ce se întâmplă în interiorul lor. 

Înțelegând modul în care sistemele AI funcționează prin IA explicabilă, dezvoltatorii se pot asigura că sistemul funcționează așa cum ar trebui. De asemenea, poate ajuta la asigurarea că modelul respectă standardele de reglementare și oferă posibilitatea ca modelul să fie contestat sau modificat. 

Imagine: Dr. Matt Turek/DARPA

Diferențele dintre AI și XAI

Unele diferențe cheie ajută la separarea AI „obișnuită” de AI explicabilă, dar cel mai important, XAI implementează tehnici și metode specifice care ajută la asigurarea că fiecare decizie din procesul ML este urmăribilă și explicabilă. În comparație, IA obișnuită ajunge de obicei la rezultat folosind un algoritm ML, dar este imposibil de înțeles pe deplin cum a ajuns algoritmul la rezultat. În cazul IA obișnuite, este extrem de dificil să se verifice acuratețea, ceea ce duce la pierderea controlului, a răspunderii și a auditabilității. 

Beneficiile AI explicabile 

Există multe beneficii pentru orice organizație care dorește să adopte IA explicabilă, cum ar fi: 

  • Rezultate mai rapide: IA explicabilă permite organizațiilor să monitorizeze și să gestioneze sistematic modele pentru a optimiza rezultatele afacerii. Este posibil să se evalueze și să îmbunătățească continuu performanța modelului și să se ajusteze dezvoltarea modelului.
  • Reducerea riscurilor: Prin adoptarea unor procese AI explicabile, vă asigurați că modelele dvs. AI sunt explicabile și transparente. Puteți gestiona reglementările, conformitatea, riscurile și alte cerințe minimizând în același timp cheltuielile generale ale inspecției manuale. Toate acestea ajută, de asemenea, la atenuarea riscului de părtinire neintenționată. 
  • A cladi increderea: AI explicabil ajută la stabilirea încrederii în IA de producție. Modelele AI pot fi aduse rapid în producție, puteți asigura interpretabilitatea și explicabilitatea, iar procesul de evaluare a modelului poate fi simplificat și făcut mai transparent. 

Tehnici pentru IA explicabilă

Există câteva tehnici XAI pe care toate organizațiile ar trebui să le ia în considerare și constau în trei metode principale: acuratețea predicției, trasabilitatea, și înţelegerea deciziei

Prima dintre cele trei metode, acuratețea predicției, este esențială pentru a utiliza cu succes AI în operațiunile de zi cu zi. Pot fi efectuate simulări, iar rezultatul XAI poate fi comparat cu rezultatele din setul de date de antrenament, ceea ce ajută la determinarea preciziei predicției. Una dintre cele mai populare tehnici pentru a realiza acest lucru este numită Local Interpretable Model-Agnostic Explanations (LIME), o tehnică care explică predicția clasificatorilor prin algoritmul de învățare automată. 

A doua metodă este trasabilitatea, care se realizează prin limitarea modului în care pot fi luate deciziile, precum și prin stabilirea unui domeniu mai restrâns pentru regulile și funcțiile de învățare automată. Una dintre cele mai comune tehnici de trasabilitate este DeepLIFT sau Deep Learning Important FeaTures. DeepLIFT compară activarea fiecărui neuron cu neuronul său de referință, demonstrând în același timp o legătură trasabilă între fiecare neuron activat. De asemenea, arată dependențele dintre ele. 

A treia și ultima metodă este înţelegerea deciziei, care este axat pe om, spre deosebire de celelalte două metode. Înțelegerea deciziilor implică educarea organizației, în special a echipei care lucrează cu AI, pentru a le permite să înțeleagă cum și de ce AI ia decizii. Această metodă este crucială pentru stabilirea încrederii în sistem. 

Principii explicabile ale IA

Pentru a oferi o mai bună înțelegere a XAI și a principiilor sale, Institutul Național de Standarde (NIST), care face parte din Departamentul de Comerț al SUA, oferă definiții pentru patru principii de IA explicabilă: 

  1. Un sistem AI ar trebui să ofere dovezi, sprijin sau raționament pentru fiecare rezultat. 
  2. Un sistem AI ar trebui să ofere explicații care să poată fi înțelese de utilizatori. 
  3. Explicația ar trebui să reflecte cu acuratețe procesul utilizat de sistem pentru a ajunge la rezultatul său. 
  4. Sistemul AI ar trebui să funcționeze numai în condițiile pentru care a fost proiectat și nu ar trebui să ofere rezultate atunci când nu are suficientă încredere în rezultat. 

Aceste principii pot fi organizate și mai mult în: 

  • Plin de înțeles: Pentru a atinge principiul semnificației, un utilizator ar trebui să înțeleagă explicația oferită. Acest lucru ar putea însemna și că, în cazul în care un algoritm AI este utilizat de diferite tipuri de utilizatori, ar putea exista mai multe explicații. De exemplu, în cazul unei mașini cu conducere autonomă, o explicație ar putea fi de tipul... „AI a clasificat punga de plastic de pe drum drept o piatră și, prin urmare, a luat măsuri pentru a evita lovirea ei”. Deși acest exemplu ar funcționa pentru driver, nu ar fi foarte util pentru un dezvoltator AI care dorește să corecteze problema. În acest caz, dezvoltatorul trebuie să înțeleagă de ce a existat o clasificare greșită. 
  • Exactitatea explicației: Spre deosebire de acuratețea ieșirii, acuratețea explicației implică algoritmul AI care explică cu exactitate modul în care a ajuns la ieșire. De exemplu, dacă un algoritm de aprobare a împrumutului explică o decizie bazată pe venitul unei cereri, când, de fapt, aceasta se baza pe locul de reședință al solicitantului, explicația ar fi inexactă. 
  • Limite de cunoștințe: Limitele de cunoștințe ale IA pot fi atinse în două moduri și implică intrarea în afara expertizei sistemului. De exemplu, dacă un sistem este construit pentru a clasifica speciile de păsări și i se oferă o imagine a unui măr, ar trebui să fie capabil să explice faptul că intrarea nu este o pasăre. Dacă sistemului i se oferă o imagine neclară, ar trebui să poată raporta că nu poate identifica pasărea din imagine sau, alternativ, că identificarea sa are un nivel de încredere foarte scăzut. 

Rolul datelor în IA explicabilă

Una dintre cele mai importante componente ale inteligenței artificiale explicabile sunt datele. 

În conformitate cu Google, în ceea ce privește datele și inteligența artificială explicabilă, „un sistem de inteligență artificială este cel mai bine înțeles după datele de antrenament și procesul de instruire care stau la baza, precum și modelul de inteligență artificială rezultat”. Această înțelegere se bazează pe capacitatea de a mapa un model AI antrenat cu setul de date exact folosit pentru a-l antrena, precum și pe capacitatea de a examina îndeaproape datele. 

Pentru a îmbunătăți explicabilitatea unui model, este important să acordați atenție datelor de antrenament. Echipele ar trebui să determine originea datelor utilizate pentru a antrena un algoritm, legalitatea și etica în jurul obținerii acestuia, orice posibilă părtinire a datelor și ce se poate face pentru a atenua orice părtinire. 

Un alt aspect critic al datelor și XAI este că datele irelevante pentru sistem ar trebui excluse. Pentru a realiza acest lucru, datele irelevante nu trebuie incluse în setul de antrenament sau în datele de intrare. 

Google a recomandat un set de practici pentru a obține interpretabilitate și responsabilitate: 

  • Planificați-vă opțiunile pentru a urmări interpretabilitatea
  • Tratați interpretabilitatea ca pe o parte esențială a experienței utilizatorului
  • Proiectați modelul pentru a fi interpretabil
  • Alegeți valori care să reflecte obiectivul final și sarcina finală
  • Înțelegeți modelul antrenat
  • Comunicați explicații utilizatorilor modelului
  • Efectuați multe teste pentru a vă asigura că sistemul AI funcționează conform intenției 

Urmând aceste practici recomandate, organizația dumneavoastră se poate asigura că realizează o inteligență artificială explicabilă, care este cheia oricărei organizații bazate pe inteligență artificială în mediul actual. 

 

Alex McFarland este jurnalist și scriitor AI care explorează cele mai recente evoluții în inteligența artificială. A colaborat cu numeroase startup-uri și publicații AI din întreaga lume.