škrbina Što je objašnjiva umjetna inteligencija? - Ujedinite se.AI
Povežite se s nama
Majstorski tečaj umjetne inteligencije:

AI 101

Što je Objašnjiva umjetna inteligencija?

Ažurirano on
Slika: DeepMind na Unsplash

Kako umjetna inteligencija (AI) postaje sve složenija i široko prihvaćena u cijelom društvu, jedan od najkritičnijih skupova procesa i metoda je objašnjiv (AI), koji se ponekad naziva i XAI. 

Objašnjiva AI može se definirati kao:

  • Skup procesa i metoda koji pomažu ljudskim korisnicima da razumiju i povjeruju rezultatima algoritama strojnog učenja. 

Kao što možete pretpostaviti, ova objašnjivost je nevjerojatno važna jer algoritmi umjetne inteligencije preuzimaju kontrolu nad mnogim sektorima, što dolazi s rizikom od pristranosti, pogrešnih algoritama i drugih problema. Postizanjem transparentnosti s objašnjivošću, svijet doista može iskoristiti snagu umjetne inteligencije. 

Objašnjiva umjetna inteligencija, kao što ime sugerira, pomaže opisati model umjetne inteligencije, njegov utjecaj i potencijalne pristranosti. Također igra ulogu u karakterizaciji točnosti modela, pravednosti, transparentnosti i ishoda u procesima donošenja odluka koje pokreće AI. 

Današnje organizacije vođene umjetnom inteligencijom uvijek bi trebale usvojiti objašnjive procese umjetne inteligencije kako bi pomogle u izgradnji povjerenja u modele umjetne inteligencije u proizvodnji. Objašnjiva umjetna inteligencija također je ključna za postajanje odgovornom tvrtkom u današnjem okruženju umjetne inteligencije.

Budući da su današnji sustavi umjetne inteligencije toliko napredni, ljudi obično provode postupak izračuna kako bi ponovno pratili kako je algoritam došao do rezultata. Ovaj proces postaje "crna kutija", što znači da ga je nemoguće razumjeti. Kada se ovi neobjašnjivi modeli razvijaju izravno iz podataka, nitko ne može razumjeti što se unutar njih događa. 

Razumijevanjem načina na koji AI sustavi rade putem objašnjive AI, programeri mogu osigurati da sustav radi kako treba. Također može pomoći osigurati da model zadovoljava regulatorne standarde i pruža mogućnost da se model ospori ili promijeni. 

Slika: dr. Matt Turek/DARPA

Razlike između AI i XAI

Neke ključne razlike pomažu odvojiti "običnu" umjetnu inteligenciju od objašnjive umjetne inteligencije, ali što je najvažnije, XAI implementira specifične tehnike i metode koje pomažu osigurati da je svaka odluka u procesu ML-a sljediva i objašnjiva. Za usporedbu, obična umjetna inteligencija obično dolazi do rezultata pomoću ML algoritma, ali nemoguće je u potpunosti razumjeti kako je algoritam došao do rezultata. U slučaju obične umjetne inteligencije, iznimno je teško provjeriti točnost, što rezultira gubitkom kontrole, odgovornosti i mogućnosti revizije. 

Prednosti objašnjive umjetne inteligencije 

Postoje mnoge prednosti za svaku organizaciju koja želi usvojiti objašnjivu AI, kao što su: 

  • Brži rezultati: Objašnjiva umjetna inteligencija omogućuje organizacijama sustavno praćenje i upravljanje modelima za optimizaciju poslovnih rezultata. Moguće je kontinuirano ocjenjivati ​​i poboljšavati performanse modela i fino podešavati razvoj modela.
  • Umanjite rizike: Usvajanjem objašnjivih procesa umjetne inteligencije osiguravate da su vaši modeli umjetne inteligencije razumljivi i transparentni. Možete upravljati regulatornim zahtjevima, zahtjevima usklađenosti, rizicima i drugim zahtjevima dok minimalizirate troškove ručne inspekcije. Sve ovo također pomaže ublažiti rizik od nenamjerne pristranosti. 
  • Izgradite povjerenje: Objašnjiva umjetna inteligencija pomaže uspostaviti povjerenje u proizvodnu umjetnu inteligenciju. AI modeli se mogu brzo staviti u proizvodnju, možete osigurati interpretabilnost i objašnjivost, a proces evaluacije modela može se pojednostaviti i učiniti transparentnijim. 

Tehnike za objašnjivu umjetnu inteligenciju

Postoje neke XAI tehnike koje bi sve organizacije trebale razmotriti, a sastoje se od tri glavne metode: točnost predviđanja, sljedivosti razumijevanje odluka

Prva od tri metode, točnost predviđanja, ključan je za uspješno korištenje umjetne inteligencije u svakodnevnim operacijama. Moguće je provesti simulacije, a XAI izlaz može se usporediti s rezultatima u skupu podataka za obuku, što pomaže u određivanju točnosti predviđanja. Jedna od popularnijih tehnika za postizanje toga zove se lokalna interpretabilna model-agnostička objašnjenja (LIME), tehnika koja objašnjava predviđanje klasifikatora pomoću algoritma strojnog učenja. 

Druga metoda je sljedivost, što se postiže ograničavanjem načina na koji se mogu donositi odluke, kao i uspostavljanjem užeg opsega za pravila i značajke strojnog učenja. Jedna od najčešćih tehnika sljedivosti je DeepLIFT ili Deep Learning Important FeaTures. DeepLIFT uspoređuje aktivaciju svakog neurona s njegovim referentnim neuronom dok pokazuje sljedivu vezu između svakog aktiviranog neurona. Također pokazuje ovisnosti između njih. 

Treća i posljednja metoda je razumijevanje odluka, koja je usmjerena na čovjeka, za razliku od druge dvije metode. Razumijevanje odluka uključuje edukaciju organizacije, posebno tima koji radi s umjetnom inteligencijom, kako bi im se omogućilo da razumiju kako i zašto umjetna inteligencija donosi odluke. Ova metoda je ključna za uspostavljanje povjerenja u sustav. 

Objašnjivi principi umjetne inteligencije

Kako bi omogućio bolje razumijevanje XAI-ja i njegovih načela, Nacionalni institut za standarde (NIST), koji je dio američkog Ministarstva trgovine, daje definicije za četiri načela objašnjive AI: 

  1. Sustav umjetne inteligencije trebao bi pružiti dokaze, podršku ili obrazloženje za svaki rezultat. 
  2. Sustav umjetne inteligencije trebao bi davati objašnjenja koja korisnici mogu razumjeti. 
  3. Objašnjenje bi trebalo točno odražavati proces koji je sustav koristio da bi došao do svojih rezultata. 
  4. Sustav umjetne inteligencije trebao bi raditi samo u uvjetima za koje je dizajniran i ne bi trebao pružati rezultate kada nema dovoljno povjerenja u rezultat. 

Ova se načela mogu dalje organizirati u: 

  • Značajno: Da bi se postiglo načelo smislenosti, korisnik treba razumjeti dano objašnjenje. To također može značiti da u slučaju da algoritam umjetne inteligencije koriste različite vrste korisnika, može postojati nekoliko objašnjenja. Na primjer, u slučaju samovozećeg automobila, jedno objašnjenje moglo bi biti u skladu s... "AI je plastičnu vrećicu na cesti kategorizirala kao kamen i stoga je poduzela mjere da izbjegne udar u nju." Iako bi ovaj primjer radio za upravljački program, ne bi bio od velike koristi programerima AI koji žele riješiti problem. U tom slučaju, programer mora razumjeti zašto je došlo do pogrešne klasifikacije. 
  • Točnost objašnjenja: Za razliku od izlazne točnosti, točnost objašnjenja uključuje AI algoritam koji točno objašnjava kako je došao do svog izlaza. Na primjer, ako algoritam za odobravanje kredita objašnjava odluku na temelju prihoda zahtjeva, a zapravo se temelji na mjestu prebivališta podnositelja zahtjeva, objašnjenje bi bilo netočno. 
  • Ograničenja znanja: Granice znanja umjetne inteligencije mogu se dosegnuti na dva načina, a to uključuje unos koji je izvan stručnosti sustava. Na primjer, ako je sustav izgrađen za klasifikaciju vrsta ptica i ako mu je dana slika jabuke, trebao bi moći objasniti da unos nije ptica. Ako sustav dobije mutnu sliku, trebao bi moći izvijestiti da ne može identificirati pticu na slici, ili alternativno, da njezina identifikacija ima vrlo nisku pouzdanost. 

Uloga podataka u objašnjivoj umjetnoj inteligenciji

Jedna od najvažnijih komponenti objašnjive umjetne inteligencije su podaci. 

Prema Google, u vezi s podacima i objašnjivom umjetnom inteligencijom, "sustav umjetne inteligencije najbolje je razumjeti temeljnim podacima o obuci i procesu obuke, kao i rezultirajućim modelom umjetne inteligencije." Ovo se razumijevanje oslanja na sposobnost mapiranja obučenog AI modela na točan skup podataka koji se koristi za njegovo treniranje, kao i na sposobnost pomnog ispitivanja podataka. 

Kako bi se poboljšala objašnjivost modela, važno je obratiti pozornost na podatke o obuci. Timovi bi trebali utvrditi podrijetlo podataka korištenih za obuku algoritma, zakonitost i etičnost koja okružuje njihovo dobivanje, svaku potencijalnu pristranost u podacima i što se može učiniti za ublažavanje bilo kakve pristranosti. 

Još jedan kritičan aspekt podataka i XAI-ja je da treba isključiti podatke koji nisu bitni za sustav. Da bi se to postiglo, irelevantni podaci ne smiju biti uključeni u set za obuku ili ulazne podatke. 

Google je preporučio niz praksi za postizanje tumačenja i odgovornosti: 

  • Isplanirajte svoje mogućnosti za postizanje interpretabilnosti
  • Tretirajte interpretabilnost kao ključni dio korisničkog iskustva
  • Dizajnirajte model tako da ga je moguće interpretirati
  • Odaberite metriku koja odražava krajnji cilj i krajnji zadatak
  • Razumjeti uvježbani model
  • Prenesite objašnjenja korisnicima modela
  • Provedite puno testiranja kako biste bili sigurni da AI sustav radi kako je predviđeno 

Slijedeći ove preporučene prakse, vaša organizacija može osigurati postizanje objašnjive umjetne inteligencije, što je ključno za svaku organizaciju vođenu umjetnom inteligencijom u današnjem okruženju. 

 

Alex McFarland je AI novinar i pisac koji istražuje najnovija dostignuća u umjetnoj inteligenciji. Surađivao je s brojnim AI startupovima i publikacijama diljem svijeta.