stubs Kas ir izskaidrojams AI? - Apvienojieties.AI
Savienoties ar mums
AI meistarklase:

AI 101

Kas ir izskaidrojams AI?

Atjaunināts on
Attēls: DeepMind on Unsplash

Tā kā mākslīgais intelekts (AI) kļūst sarežģītāks un plaši pieņemts visā sabiedrībā, viens no vissvarīgākajiem procesu un metožu kopumiem ir izskaidrojams (AI), ko dažreiz dēvē par XAI. 

Izskaidrojamu AI var definēt kā:

  • Procesu un metožu kopums, kas palīdz lietotājiem saprast mašīnmācīšanās algoritmu rezultātus un tiem uzticēties. 

Kā jūs varat uzminēt, šī izskaidrojamība ir neticami svarīga, jo AI algoritmi pārņem kontroli pār daudzām nozarēm, kas rada novirzes, kļūdainu algoritmu un citu problēmu risku. Panākot caurspīdīgumu un izskaidrojamību, pasaule var patiesi izmantot AI spēku. 

Izskaidrojams AI, kā norāda nosaukums, palīdz aprakstīt AI modeli, tā ietekmi un iespējamās novirzes. Tam ir arī nozīme, raksturojot modeļa precizitāti, godīgumu, caurspīdīgumu un rezultātus AI vadītos lēmumu pieņemšanas procesos. 

Mūsdienu uz AI virzītām organizācijām vienmēr ir jāpieņem izskaidrojami AI procesi, lai palīdzētu radīt uzticību un pārliecību par AI modeļiem ražošanā. Izskaidrojams AI ir arī galvenais, lai mūsdienu AI vidē kļūtu par atbildīgu uzņēmumu.

Tā kā mūsdienu AI sistēmas ir tik attīstītas, cilvēki parasti veic aprēķinu procesu, lai izsekotu, kā algoritms nonācis pie tā rezultāta. Šis process kļūst par “melno kasti”, kas nozīmē, ka to nav iespējams saprast. Kad šie neizskaidrojamie modeļi tiek izstrādāti tieši no datiem, neviens nevar saprast, kas tajos notiek. 

Izprotot, kā AI sistēmas darbojas, izmantojot izskaidrojamo AI, izstrādātāji var nodrošināt, ka sistēma darbojas tā, kā vajadzētu. Tas var arī palīdzēt nodrošināt modeļa atbilstību normatīvajiem standartiem, un tas nodrošina iespēju modeli apstrīdēt vai mainīt. 

Attēls: Dr. Mets Tureks/DARPA

Atšķirības starp AI un XAI

Dažas galvenās atšķirības palīdz atdalīt “parasto” AI no izskaidrojama AI, bet vissvarīgākais ir tas, ka XAI ievieš īpašas metodes un metodes, kas palīdz nodrošināt, ka katrs lēmums ML procesā ir izsekojams un izskaidrojams. Salīdzinājumam, parastais AI parasti iegūst rezultātu, izmantojot ML algoritmu, taču nav iespējams pilnībā saprast, kā algoritms nonāca pie rezultāta. Parasta AI gadījumā ir ārkārtīgi grūti pārbaudīt precizitāti, kā rezultātā tiek zaudēta kontrole, atbildība un pārbaudāmība. 

Izskaidrojamā AI priekšrocības 

Jebkurai organizācijai, kas vēlas pieņemt izskaidrojamu AI, ir daudz priekšrocību, piemēram: 

  • Ātrāki rezultāti: Izskaidrojams AI ļauj organizācijām sistemātiski uzraudzīt un pārvaldīt modeļus, lai optimizētu biznesa rezultātus. Ir iespējams nepārtraukti novērtēt un uzlabot modeļa veiktspēju un precizēt modeļa izstrādi.
  • Samaziniet riskus: Pieņemot izskaidrojamus AI procesus, jūs nodrošināsiet, ka jūsu AI modeļi ir izskaidrojami un pārredzami. Varat pārvaldīt normatīvās, atbilstības, riskus un citas prasības, vienlaikus samazinot manuālās pārbaudes izmaksas. Tas viss arī palīdz mazināt neparedzētu aizspriedumu risku. 
  • Veidojiet uzticēšanos: Izskaidrojams AI palīdz izveidot uzticību ražošanas AI. AI modeļus var ātri ieviest ražošanā, jūs varat nodrošināt interpretējamību un izskaidrojamību, kā arī modeļu novērtēšanas procesu var vienkāršot un padarīt pārredzamāku. 

Izskaidrojamā AI metodes

Ir dažas XAI metodes, kas jāņem vērā visām organizācijām, un tās sastāv no trim galvenajām metodēm: prognozēšanas precizitāte, izsekojamība, un lēmuma izpratne

Pirmā no trim metodēm, prognozēšanas precizitāte, ir būtiska, lai veiksmīgi izmantotu AI ikdienas darbībās. Var veikt simulācijas, un XAI izvadi var salīdzināt ar rezultātiem apmācības datu kopā, kas palīdz noteikt prognozēšanas precizitāti. Viens no populārākajiem paņēmieniem, lai to panāktu, tiek saukts par vietējo interpretējamo modeļu agnostisko skaidrojumu (LIME) — metodi, kas izskaidro klasifikatoru prognozēšanu, izmantojot mašīnmācīšanās algoritmu. 

Otrā metode ir izsekojamība, kas tiek panākts, ierobežojot lēmumu pieņemšanas veidu, kā arī izveidojot šaurāku mašīnmācīšanās noteikumu un funkciju darbības jomu. Viena no visizplatītākajām izsekojamības metodēm ir DeepLIFT jeb Deep Learning Important FeaTures. DeepLIFT salīdzina katra neirona aktivāciju ar tā atsauces neironu, vienlaikus demonstrējot izsekojamu saikni starp katru aktivizēto neironu. Tas arī parāda atkarības starp tām. 

Trešā un pēdējā metode ir lēmuma izpratne, kas atšķirībā no pārējām divām metodēm ir vērsta uz cilvēku. Lēmumu izpratne ietver organizācijas, jo īpaši komandas, kas strādā ar AI, izglītošanu, lai viņi saprastu, kā un kāpēc AI pieņem lēmumus. Šī metode ir ļoti svarīga, lai izveidotu uzticēšanos sistēmai. 

Izskaidrojamie AI principi

Lai nodrošinātu labāku izpratni par XAI un tā principiem, Nacionālais standartu institūts (NIST), kas ir daļa no ASV Tirdzniecības departamenta, sniedz definīcijas četriem izskaidrojama AI principiem: 

  1. AI sistēmai ir jāsniedz pierādījumi, atbalsts vai pamatojums par katru rezultātu. 
  2. AI sistēmai ir jāsniedz paskaidrojumi, kas ir saprotami tās lietotājiem. 
  3. Paskaidrojumam precīzi jāatspoguļo process, ko sistēma izmanto, lai sasniegtu rezultātu. 
  4. AI sistēmai ir jādarbojas tikai tādos apstākļos, kādos tā ir paredzēta, un tai nevajadzētu nodrošināt izvadi, ja tai trūkst pietiekamas pārliecības par rezultātu. 

Šos principus var iedalīt vēl vairāk: 

  • Nozīmīgi: Lai sasniegtu jēgpilnības principu, lietotājam ir jāsaprot sniegtais skaidrojums. Tas varētu arī nozīmēt, ka gadījumā, ja AI algoritmu izmanto dažāda veida lietotāji, tam var būt vairāki skaidrojumi. Piemēram, pašbraucošas automašīnas gadījumā viens izskaidrojums varētu būt šāds: “AI plastmasas maisiņu uz ceļa klasificēja kā akmeni, un tāpēc rīkojās, lai izvairītos no tā ietriekšanās. Lai gan šis piemērs būtu piemērots draiverim, tas nebūtu īpaši noderīgs AI izstrādātājam, kurš vēlas novērst problēmu. Tādā gadījumā izstrādātājam ir jāsaprot, kāpēc tika veikta nepareiza klasifikācija. 
  • Paskaidrojuma precizitāte: Atšķirībā no izvades precizitātes, skaidrojuma precizitāte ietver AI algoritmu, kas precīzi izskaidro, kā tas sasniedza izvadi. Piemēram, ja aizdevuma apstiprināšanas algoritms lēmumu izskaidro, pamatojoties uz pieteikuma ienākumiem, lai gan patiesībā tas ir balstīts uz pieteikuma iesniedzēja dzīvesvietu, skaidrojums būtu neprecīzs. 
  • Zināšanu ierobežojumi: AI zināšanu robežas var sasniegt divos veidos, un tas nozīmē, ka ievade ir ārpus sistēmas kompetences. Piemēram, ja ir izveidota sistēma putnu sugu klasificēšanai un tai tiek parādīts ābola attēls, tai jāspēj izskaidrot, ka ievade nav putns. Ja sistēmai tiek sniegts izplūdis attēls, tai jāspēj ziņot, ka tā nespēj identificēt attēlā redzamo putnu, vai arī, ka tās identifikācijas ticamība ir ļoti zema. 

Datu loma izskaidrojamā AI

Viena no svarīgākajām izskaidrojama AI sastāvdaļām ir dati. 

Saskaņā ar google, attiecībā uz datiem un izskaidrojamu AI: "AI sistēmu vislabāk var saprast pamatā esošie apmācības dati un apmācības process, kā arī iegūtais AI modelis." Šī izpratne ir atkarīga no spējas kartēt apmācītu AI modeli ar precīzu datu kopu, ko izmanto tā apmācīšanai, kā arī spēju rūpīgi pārbaudīt datus. 

Lai uzlabotu modeļa izskaidrojamību, ir svarīgi pievērst uzmanību apmācības datiem. Grupām ir jānosaka algoritma apmācībai izmantoto datu izcelsme, to iegūšanas likumība un ētika, iespējamā datu novirze un to, ko var darīt, lai mazinātu jebkādas novirzes. 

Vēl viens būtisks datu un XAI aspekts ir tas, ka ir jāizslēdz dati, kas nav saistīti ar sistēmu. Lai to panāktu, nebūtiskos datus nedrīkst iekļaut apmācības komplektā vai ievades datos. 

Google ir ieteicis vairākas prakses, lai panāktu interpretējamību un atbildību. 

  • Plānojiet savas iespējas interpretējamības sasniegšanai
  • Uztveriet interpretāciju kā lietotāja pieredzes galveno daļu
  • Izveidojiet modeli tā, lai tas būtu interpretējams
  • Izvēlieties metriku, kas atspoguļo gala mērķi un beigu uzdevumu
  • Izprotiet apmācīto modeli
  • Paziņojiet paskaidrojumus modeļu lietotājiem
  • Veiciet daudz testu, lai pārliecinātos, ka AI sistēma darbojas, kā paredzēts 

Ievērojot šīs ieteicamās prakses, jūsu organizācija var nodrošināt saprotamu AI, kas mūsdienu vidē ir būtiska jebkurai AI vadītai organizācijai. 

 

Alekss Makfārlends ir AI žurnālists un rakstnieks, kurš pēta jaunākos sasniegumus mākslīgā intelekta jomā. Viņš ir sadarbojies ar daudziem AI jaunizveidotiem uzņēmumiem un publikācijām visā pasaulē.