škrbina Kaj je Explainable AI? - Združi se.AI
Povežite se z nami

AI 101

Kaj je Explainable AI?

Posodobljeno on
Slika: DeepMind na Unsplash

Ker umetna inteligenca (AI) postaja vse bolj zapletena in razširjena v družbi, je eden najbolj kritičnih sklopov procesov in metod razložljiv (AI), včasih imenovan tudi XAI. 

Razložljiv AI je mogoče definirati kot:

  • Nabor procesov in metod, ki uporabnikom pomagajo razumeti rezultate algoritmov strojnega učenja in jim zaupati. 

Kot lahko ugibate, je ta razložljivost izjemno pomembna, saj algoritmi AI prevzamejo nadzor nad številnimi sektorji, kar prinaša tveganje pristranskosti, napačnih algoritmov in drugih težav. Z doseganjem preglednosti z razložljivostjo lahko svet resnično izkoristi moč umetne inteligence. 

Razložljiva umetna inteligenca, kot že ime pove, pomaga opisati model umetne inteligence, njegov vpliv in morebitne pristranskosti. Prav tako igra vlogo pri označevanju natančnosti modela, pravičnosti, preglednosti in rezultatov v procesih odločanja, ki jih poganja AI. 

Današnje organizacije, ki temeljijo na umetni inteligenci, bi morale vedno sprejeti razložljive procese umetne inteligence, da bi pomagale zgraditi zaupanje v modele umetne inteligence v proizvodnji. Razložljiva umetna inteligenca je ključnega pomena tudi za odgovorno podjetje v današnjem okolju umetne inteligence.

Ker so današnji sistemi umetne inteligence tako napredni, ljudje običajno izvedejo postopek izračuna, da ponovno izsledijo, kako je algoritem prišel do rezultata. Ta proces postane »črna skrinjica«, kar pomeni, da ga je nemogoče razumeti. Ko so ti nerazložljivi modeli razviti neposredno iz podatkov, nihče ne more razumeti, kaj se dogaja v njih. 

Z razumevanjem delovanja sistemov AI prek razložljive AI lahko razvijalci zagotovijo, da sistem deluje, kot bi moral. Prav tako lahko pomaga zagotoviti, da model izpolnjuje regulativne standarde, in nudi možnost, da se model izpodbija ali spremeni. 

Slika: Dr. Matt Turek/DARPA

Razlike med AI in XAI

Nekatere ključne razlike pomagajo pri ločevanju »navadne« umetne inteligence od razložljive umetne inteligence, najpomembneje pa je, da XAI izvaja posebne tehnike in metode, ki pomagajo zagotoviti, da je vsaka odločitev v procesu ML sledljiva in razložljiva. Za primerjavo, običajna umetna inteligenca običajno pride do rezultata z uporabo algoritma ML, vendar je nemogoče v celoti razumeti, kako je algoritem prišel do rezultata. V primeru običajne umetne inteligence je izjemno težko preveriti točnost, kar povzroči izgubo nadzora, odgovornosti in revizijske sposobnosti. 

Prednosti razložljive umetne inteligence 

Vsaka organizacija, ki želi sprejeti razložljivo umetno inteligenco, ima številne prednosti, kot so: 

  • Hitrejši rezultati: Razložljiva umetna inteligenca omogoča organizacijam sistematično spremljanje in upravljanje modelov za optimizacijo poslovnih rezultatov. Možno je nenehno ocenjevati in izboljševati zmogljivost modela ter natančno prilagajati razvoj modela.
  • Zmanjšanje tveganj: S sprejetjem razložljivih procesov AI zagotovite, da so vaši modeli AI razložljivi in ​​pregledni. Upravljate lahko regulativne zahteve, zahteve glede skladnosti, tveganja in druge zahteve, hkrati pa zmanjšate stroške ročnega pregleda. Vse to tudi pomaga zmanjšati tveganje nenamerne pristranskosti. 
  • Zgradite zaupanje: Razložljiva umetna inteligenca pomaga vzpostaviti zaupanje v produkcijsko umetno inteligenco. Modele umetne inteligence je mogoče hitro prenesti v produkcijo, lahko zagotovite interpretabilnost in razložljivost, postopek vrednotenja modela pa je mogoče poenostaviti in narediti bolj pregleden. 

Tehnike za razložljivo umetno inteligenco

Obstaja nekaj tehnik XAI, ki bi jih morale upoštevati vse organizacije in so sestavljene iz treh glavnih metod: natančnost napovedi, Sledljivostin razumevanje odločitve

Prva od treh metod, natančnost napovedi, je bistvenega pomena za uspešno uporabo AI v vsakodnevnih operacijah. Izvedejo se lahko simulacije in izhodni podatki XAI se lahko primerjajo z rezultati v naboru podatkov o usposabljanju, kar pomaga določiti natančnost napovedi. Ena izmed bolj priljubljenih tehnik za doseganje tega se imenuje Local Interpretable Model-Agnostic Explanations (LIME), tehnika, ki pojasnjuje napovedovanje klasifikatorjev z algoritmom strojnega učenja. 

Druga metoda je Sledljivost, kar se doseže z omejevanjem načina sprejemanja odločitev, pa tudi z vzpostavitvijo ožjega obsega za pravila in funkcije strojnega učenja. Ena najpogostejših tehnik sledljivosti je DeepLIFT ali Deep Learning Important FeaTures. DeepLIFT primerja aktivacijo vsakega nevrona z njegovim referenčnim nevronom, hkrati pa prikazuje sledljivo povezavo med vsakim aktiviranim nevronom. Prikazuje tudi odvisnosti med njimi. 

Tretja in zadnja metoda je razumevanje odločitve, ki je za razliko od drugih dveh metod osredotočena na človeka. Razumevanje odločitev vključuje izobraževanje organizacije, zlasti ekipe, ki dela z umetno inteligenco, da bi razumeli, kako in zakaj umetna inteligenca sprejema odločitve. Ta metoda je ključnega pomena za vzpostavitev zaupanja v sistem. 

Razložljiva načela AI

Da bi zagotovili boljše razumevanje XAI in njegovih načel, Nacionalni inštitut za standarde (NIST), ki je del ameriškega ministrstva za trgovino, zagotavlja definicije za štiri načela razložljive umetne inteligence: 

  1. Sistem umetne inteligence mora zagotoviti dokaze, podporo ali utemeljitev za vsak rezultat. 
  2. Sistem umetne inteligence mora dajati razlage, ki jih uporabniki razumejo. 
  3. Razlaga mora natančno odražati postopek, ki ga je sistem uporabil, da je dosegel svoj rezultat. 
  4. Sistem umetne inteligence bi moral delovati le pod pogoji, za katere je bil zasnovan, in ne bi smel zagotavljati rezultatov, če ni dovolj zaupanja v rezultat. 

Ta načela je mogoče še bolj organizirati v: 

  • Pomenljivo: Za doseganje načela smiselnosti mora uporabnik razumeti podano razlago. To bi lahko tudi pomenilo, da je v primeru algoritma AI, ki ga uporabljajo različne vrste uporabnikov, morda več razlag. Na primer, v primeru samovozečega avtomobila bi lahko bila ena razlaga v skladu z ... "AI je plastično vrečko na cesti kategoriziral kot kamen in zato ukrepal, da bi se izognil udarcu vanjo." Čeprav bi ta primer deloval za gonilnik, ne bi bil zelo uporaben za razvijalca AI, ki želi odpraviti težavo. V tem primeru mora razvijalec razumeti, zakaj je prišlo do napačne klasifikacije. 
  • Točnost razlage: Za razliko od natančnosti izhoda natančnost razlage vključuje algoritem AI, ki natančno razloži, kako je dosegel svoj izhod. Na primer, če algoritem za odobritev posojila pojasni odločitev na podlagi dohodka vloge, čeprav je v resnici temeljila na kraju stalnega prebivališča prosilca, bi bila razlaga netočna. 
  • Meje znanja: Meje znanja umetne inteligence je mogoče doseči na dva načina in vključuje vnos zunaj strokovnega znanja sistema. Na primer, če je sistem zgrajen za razvrščanje vrst ptic in mu je dana slika jabolka, mora biti sposoben razložiti, da vnos ni ptica. Če sistem dobi zamegljeno sliko, mora biti sposoben sporočiti, da ne more prepoznati ptice na sliki, ali pa, da ima njena identifikacija zelo nizko zanesljivost. 

Vloga podatkov v razložljivi AI

Ena najpomembnejših komponent razložljive umetne inteligence so podatki. 

Glede na google, kar zadeva podatke in razložljivo umetno inteligenco, "sistem umetne inteligence najbolje razumejo temeljni podatki o usposabljanju in proces usposabljanja, kot tudi posledični model umetne inteligence." To razumevanje je odvisno od zmožnosti preslikave usposobljenega modela umetne inteligence v natančen nabor podatkov, ki se uporablja za njegovo usposabljanje, kot tudi od zmožnosti natančnega pregleda podatkov. 

Da bi izboljšali razložljivost modela, je pomembno, da ste pozorni na podatke o usposabljanju. Ekipe bi morale določiti izvor podatkov, uporabljenih za usposabljanje algoritma, zakonitost in etičnost v zvezi z njihovo pridobitvijo, morebitno pristranskost v podatkih in kaj je mogoče storiti za ublažitev morebitne pristranskosti. 

Drugi kritični vidik podatkov in XAI je, da je treba izključiti podatke, ki niso pomembni za sistem. Da bi to dosegli, nepomembni podatki ne smejo biti vključeni v učni niz ali vhodne podatke. 

Google je priporočil nabor praks za doseganje razlage in odgovornosti: 

  • Načrtujte svoje možnosti za doseganje razlage
  • Razlagalnost obravnavajte kot osrednji del uporabniške izkušnje
  • Oblikujte model tako, da ga je mogoče razlagati
  • Izberite meritve, ki bodo odražale končni cilj in končno nalogo
  • Razumeti usposobljeni model
  • Posredujte pojasnila uporabnikom modela
  • Izvedite veliko testiranj, da zagotovite, da sistem AI deluje, kot je predvideno 

Z upoštevanjem teh priporočenih praks lahko vaša organizacija zagotovi razložljivo umetno inteligenco, ki je v današnjem okolju ključna za vsako organizacijo, ki temelji na umetni inteligenci. 

 

Alex McFarland je novinar in pisec AI, ki raziskuje najnovejši razvoj umetnih inteligenc. Sodeloval je s številnimi startupi in publikacijami na področju umetne inteligence po vsem svetu.