stub Kas yra paaiškinamas AI? - Vienykitės.AI
Susisiekti su mumis
AI meistriškumo klasė:

AI 101 m

Kas yra paaiškinamas AI?

Atnaujinta on
Vaizdas: DeepMind on Unsplash

Dirbtiniam intelektui (AI) tampant sudėtingesniam ir plačiai pritaikius visuomenėje, vienas iš svarbiausių procesų ir metodų rinkinių yra paaiškinamas (DI), kartais vadinamas XAI. 

Paaiškinamas AI gali būti apibrėžtas taip:

  • Procesų ir metodų rinkinys, padedantis žmonėms suprasti mašininio mokymosi algoritmų rezultatus ir jais pasitikėti. 

Kaip galite atspėti, šis paaiškinamumas yra nepaprastai svarbus, nes AI algoritmai perima daugelio sektorių valdymą, todėl kyla šališkumo, klaidingų algoritmų ir kitų problemų rizika. Pasiekęs skaidrumą ir paaiškinamumą, pasaulis gali iš tikrųjų panaudoti AI galią. 

Paaiškinamas AI, kaip rodo pavadinimas, padeda apibūdinti AI modelį, jo poveikį ir galimą šališkumą. Tai taip pat vaidina svarbų vaidmenį apibūdinant modelio tikslumą, teisingumą, skaidrumą ir AI pagrįstų sprendimų priėmimo procesų rezultatus. 

Šiuolaikinės dirbtinio intelekto valdomos organizacijos visada turėtų taikyti paaiškinamus AI procesus, kad padėtų sukurti pasitikėjimą DI modeliais gamyboje. Paaiškinamas dirbtinis intelektas taip pat yra labai svarbus norint tapti atsakinga įmone šiandieninėje AI aplinkoje.

Kadangi šiandieninės dirbtinio intelekto sistemos yra tokios pažangios, žmonės paprastai atlieka skaičiavimo procesą, kad atsektų, kaip algoritmas pasiekė rezultatą. Šis procesas tampa „juodąja dėže“, o tai reiškia, kad jo neįmanoma suprasti. Kai šie nepaaiškinami modeliai kuriami tiesiogiai iš duomenų, niekas negali suprasti, kas vyksta juose. 

Suprasdami, kaip dirbtinio intelekto sistemos veikia per aiškinamąjį AI, kūrėjai gali užtikrinti, kad sistema veiktų taip, kaip turėtų. Tai taip pat gali padėti užtikrinti, kad modelis atitiktų reguliavimo standartus, ir suteikia galimybę modeliui užginčyti arba jį pakeisti. 

Vaizdas: Dr. Matt Turek / DARPA

Skirtumai tarp AI ir XAI

Kai kurie pagrindiniai skirtumai padeda atskirti „įprastą“ AI nuo paaiškinamo AI, bet svarbiausia, kad XAI įgyvendina specifinius metodus ir metodus, kurie padeda užtikrinti, kad kiekvienas sprendimas ML procese būtų atsekamas ir paaiškinamas. Palyginimui, įprastas AI paprastai pasiekia rezultatą naudodamas ML algoritmą, tačiau neįmanoma visiškai suprasti, kaip algoritmas pasiekė rezultatą. Įprasto AI atveju labai sunku patikrinti tikslumą, todėl prarandama kontrolė, atskaitomybė ir auditas. 

Paaiškinamo AI privalumai 

Bet kuri organizacija, norinti pritaikyti aiškinamąjį AI, turi daug privalumų, pavyzdžiui: 

  • Greitesni rezultatai: Paaiškinamas dirbtinis intelektas leidžia organizacijoms sistemingai stebėti ir valdyti modelius, siekiant optimizuoti verslo rezultatus. Galima nuolat vertinti ir tobulinti modelio veikimą bei patikslinti modelio kūrimą.
  • Sumažinti riziką: Taikydami paaiškinamus AI procesus užtikrinate, kad jūsų AI modeliai būtų paaiškinami ir skaidrūs. Galite valdyti reguliavimo, atitikties, rizikos ir kitus reikalavimus, sumažindami rankinio tikrinimo išlaidas. Visa tai taip pat padeda sumažinti netyčinio šališkumo riziką. 
  • Sukurkite pasitikėjimą: Paaiškinamas AI padeda sukurti pasitikėjimą gamybiniu AI. AI modeliai gali būti greitai pradėti gaminti, galite užtikrinti aiškinamumą ir paaiškinamumą, o modelio vertinimo procesą galima supaprastinti ir padaryti skaidresnį. 

Paaiškinamo AI metodai

Yra keletas XAI metodų, į kuriuos turėtų atsižvelgti visos organizacijos, ir jie susideda iš trijų pagrindinių metodų: prognozavimo tikslumas, atsekamumasir sprendimo supratimas

Pirmasis iš trijų būdų, prognozavimo tikslumas, būtina norint sėkmingai naudoti dirbtinį intelektą kasdienėse operacijose. Galima atlikti modeliavimą, o XAI išvestį galima palyginti su rezultatais treniruočių duomenų rinkinyje, o tai padeda nustatyti numatymo tikslumą. Vienas iš populiariausių metodų, kaip tai pasiekti, vadinamas vietiniais interpretuojamais modeliais-agnostiniais paaiškinimais (LIME) – technika, kuri paaiškina klasifikatorių numatymą pagal mašininio mokymosi algoritmą. 

Antrasis metodas yra atsekamumas, kuris pasiekiamas apribojant sprendimų priėmimo būdą, taip pat nustatant siauresnę mašininio mokymosi taisyklių ir funkcijų taikymo sritį. Vienas iš labiausiai paplitusių atsekamumo metodų yra DeepLIFT arba Deep Learning Important FeaTures. DeepLIFT lygina kiekvieno neurono aktyvavimą su jo etaloniniu neuronu, tuo pačiu parodydamas atsekamą ryšį tarp kiekvieno aktyvuoto neurono. Tai taip pat parodo jų tarpusavio priklausomybes. 

Trečias ir paskutinis metodas yra sprendimo supratimas, kuris yra orientuotas į žmogų, skirtingai nei kiti du metodai. Sprendimų supratimas apima organizacijos, ypač su AI dirbančios komandos, švietimą, kad jie suprastų, kaip ir kodėl DI priima sprendimus. Šis metodas yra labai svarbus norint sukurti pasitikėjimą sistema. 

Paaiškinami AI principai

Siekdamas geriau suprasti XAI ir jo principus, Nacionalinis standartų institutas (NIST), kuris yra JAV prekybos departamento dalis, pateikia keturių paaiškinamo AI principų apibrėžimus: 

  1. Dirbtinio intelekto sistema turėtų pateikti įrodymus, palaikymą ar argumentus kiekvienam išėjimui. 
  2. AI sistema turėtų pateikti paaiškinimus, kuriuos galėtų suprasti jos vartotojai. 
  3. Paaiškinimas turėtų tiksliai atspindėti procesą, kurį sistema naudoja siekdama gauti rezultatą. 
  4. AI sistema turėtų veikti tik tokiomis sąlygomis, kurioms ji buvo sukurta, ir neturėtų teikti išvesties, kai nepakankamai pasitiki rezultatu. 

Šiuos principus galima dar labiau suskirstyti į: 

  • Reikšmingas: Kad būtų pasiektas prasmingumo principas, vartotojas turi suprasti pateiktą paaiškinimą. Tai taip pat gali reikšti, kad jei AI algoritmą naudoja skirtingų tipų vartotojai, gali būti keletas paaiškinimų. Pavyzdžiui, savarankiškai važiuojančio automobilio atveju vienas paaiškinimas gali būti panašus į... „AI plastikinį maišelį kelyje priskyrė akmeniui, todėl ėmėsi veiksmų, kad į jį neatsitrenktų“. Nors šis pavyzdys būtų tinkamas vairuotojui, jis nebūtų labai naudingas AI kūrėjui, norinčiam išspręsti problemą. Tokiu atveju kūrėjas turi suprasti, kodėl buvo klaidingas klasifikavimas. 
  • Paaiškinimo tikslumas: Skirtingai nuo išvesties tikslumo, paaiškinimo tikslumas apima AI algoritmą, tiksliai paaiškinantį, kaip jis pasiekė išvestį. Pavyzdžiui, jei paskolos patvirtinimo algoritmas paaiškina sprendimą, pagrįstą paraiškos pajamomis, nors iš tikrųjų jis buvo pagrįstas pareiškėjo gyvenamąja vieta, paaiškinimas būtų netikslus. 
  • Žinių ribos: Dirbtinio intelekto žinių ribas galima pasiekti dviem būdais, ir tai reiškia, kad įvestis nepriklauso sistemos kompetencijai. Pavyzdžiui, jei sukurta sistema paukščių rūšims klasifikuoti ir jai pateikiamas obuolio vaizdas, ji turėtų sugebėti paaiškinti, kad įvestis nėra paukštis. Jei sistemai pateikiamas neryškus vaizdas, ji turėtų galėti pranešti, kad ji negali identifikuoti vaizde esančio paukščio, arba, kitu atveju, jo identifikavimo patikimumas labai mažas. 

Duomenų vaidmuo aiškinamajame AI

Vienas iš svarbiausių paaiškinamo AI komponentų yra duomenys. 

Pagal "Google", kalbant apie duomenis ir paaiškinamą AI, „DI sistema geriausiai suprantama pagal pagrindinius mokymo duomenis ir mokymo procesą, taip pat gautą AI modelį“. Šis supratimas priklauso nuo gebėjimo susieti išmokytą AI modelį su tiksliu duomenų rinkiniu, naudojamu jam mokyti, taip pat nuo galimybės atidžiai ištirti duomenis. 

Norint pagerinti modelio paaiškinamumą, svarbu atkreipti dėmesį į mokymo duomenis. Komandos turėtų nustatyti duomenų, naudojamų algoritmui mokyti, kilmę, jų gavimo teisėtumą ir etiką, bet kokį galimą duomenų paklaidą ir ką galima padaryti norint sumažinti šališkumą. 

Kitas svarbus duomenų ir XAI aspektas yra tai, kad duomenys, nesusiję su sistema, turėtų būti neįtraukti. Kad tai būtų pasiekta, nereikšmingi duomenys neturi būti įtraukti į mokymo rinkinį arba įvesties duomenis. 

„Google“ rekomendavo praktikos rinkinį aiškinamumui ir atskaitomybei pasiekti: 

  • Suplanuokite savo galimybes siekti aiškinimo
  • Aiškinamumą laikykite pagrindine vartotojo patirties dalimi
  • Sukurkite modelį taip, kad jį būtų galima interpretuoti
  • Pasirinkite metriką, kuri atspindėtų galutinį tikslą ir galutinę užduotį
  • Supraskite apmokytą modelį
  • Perduokite paaiškinimus modelio naudotojams
  • Atlikite daugybę bandymų, kad įsitikintumėte, jog AI sistema veikia taip, kaip numatyta 

Laikydamiesi šios rekomenduojamos praktikos, jūsų organizacija gali užtikrinti, kad ji įgyvendins paaiškinamą AI, kuri yra labai svarbi bet kuriai DI vadovaujamai organizacijai šiandieninėje aplinkoje. 

 

Alexas McFarlandas yra AI žurnalistas ir rašytojas, tyrinėjantis naujausius dirbtinio intelekto pokyčius. Jis bendradarbiavo su daugybe AI startuolių ir leidinių visame pasaulyje.