cung Çfarë është AI e shpjegueshme? - Bashkohu.AI
Lidhu me ne
Masterclass i AI:

UA 101

Çfarë është AI e shpjegueshme?

Përditësuar on
Imazhi: DeepMind në Unsplash

Ndërsa inteligjenca artificiale (AI) bëhet më komplekse dhe e miratuar gjerësisht në të gjithë shoqërinë, një nga grupet më kritike të proceseve dhe metodave është i shpjegueshëm (AI), i referuar ndonjëherë si XAI. 

AI e shpjegueshme mund të përkufizohet si:

  • Një grup procesesh dhe metodash që ndihmojnë përdoruesit njerëzorë të kuptojnë dhe të besojnë rezultatet e algoritmeve të mësimit të makinerive. 

Siç mund ta merrni me mend, kjo shpjegueshmëri është tepër e rëndësishme pasi algoritmet e AI marrin kontrollin e shumë sektorëve, gjë që vjen me rrezikun e paragjykimeve, algoritmeve të gabuara dhe çështjeve të tjera. Duke arritur transparencë me shpjegueshmëri, bota mund të shfrytëzojë me të vërtetë fuqinë e AI. 

AI e shpjegueshme, siç sugjeron emri, ndihmon në përshkrimin e një modeli të AI, ndikimin e tij dhe paragjykimet e mundshme. Ai gjithashtu luan një rol në karakterizimin e saktësisë, drejtësisë, transparencës dhe rezultateve të modelit në proceset vendimmarrëse të fuqizuara nga AI. 

Organizatat e sotme të drejtuara nga AI duhet të miratojnë gjithmonë procese të shpjegueshme të AI për të ndihmuar në ndërtimin e besimit dhe besimit në modelet e AI në prodhim. Inteligjenca artificiale e shpjegueshme është gjithashtu çelësi për t'u bërë një kompani e përgjegjshme në mjedisin e sotëm të AI.

Për shkak se sistemet e sotme të AI janë kaq të avancuara, njerëzit zakonisht kryejnë një proces llogaritjeje për të rigjurmuar se si algoritmi arriti në rezultatin e tij. Ky proces bëhet një "kuti e zezë", që do të thotë se është e pamundur të kuptohet. Kur këto modele të pashpjegueshme zhvillohen drejtpërdrejt nga të dhënat, askush nuk mund të kuptojë se çfarë po ndodh brenda tyre. 

Duke kuptuar se si funksionojnë sistemet e AI përmes AI të shpjegueshme, zhvilluesit mund të sigurojnë që sistemi të funksionojë siç duhet. Mund të ndihmojë gjithashtu që modeli të përmbushë standardet rregullatore dhe ofron mundësinë që modeli të sfidohet ose ndryshohet. 

Imazhi: Dr. Matt Turek/DARPA

Dallimet midis AI dhe XAI

Disa dallime kryesore ndihmojnë në ndarjen e AI "të rregullt" nga AI i shpjegueshëm, por më e rëndësishmja, XAI zbaton teknika dhe metoda specifike që ndihmojnë të sigurohet që çdo vendim në procesin e ML të jetë i gjurmueshëm dhe i shpjegueshëm. Në krahasim, AI i rregullt zakonisht arrin në rezultatin e tij duke përdorur një algoritëm ML, por është e pamundur të kuptohet plotësisht se si algoritmi arriti në rezultat. Në rastin e AI të rregullt, është jashtëzakonisht e vështirë të kontrollohet për saktësinë, duke rezultuar në humbjen e kontrollit, llogaridhënies dhe auditimit. 

Përfitimet e AI të shpjegueshme 

Ka shumë përfitime për çdo organizatë që kërkon të adoptojë AI të shpjegueshme, të tilla si: 

  • Rezultate më të shpejta: IA e shpjegueshme u mundëson organizatave të monitorojnë dhe menaxhojnë sistematikisht modelet për të optimizuar rezultatet e biznesit. Është e mundur të vlerësohet dhe përmirësohet vazhdimisht performanca e modelit dhe të rregullohet zhvillimi i modelit.
  • Zbutja e rreziqeve: Duke adoptuar procese të shpjegueshme të AI, ju siguroni që modelet tuaja të AI janë të shpjegueshme dhe transparente. Ju mund të menaxhoni kërkesat rregullatore, përputhshmërinë, rreziqet dhe kërkesat e tjera duke minimizuar shpenzimet e përgjithshme të inspektimit manual. E gjithë kjo gjithashtu ndihmon në zbutjen e rrezikut të paragjykimit të paqëllimshëm. 
  • Ndërtoni besim: IA e shpjegueshme ndihmon në krijimin e besimit në AI të prodhimit. Modelet e AI mund të sillen me shpejtësi në prodhim, ju mund të siguroni interpretueshmëri dhe shpjegueshmëri, dhe procesi i vlerësimit të modelit mund të thjeshtohet dhe bëhet më transparent. 

Teknikat për AI të shpjegueshme

Ekzistojnë disa teknika XAI që të gjitha organizatat duhet t'i marrin parasysh, dhe ato përbëhen nga tre metoda kryesore: saktësia e parashikimit, gjurmueshmërinëdhe të kuptuarit e vendimit

E para nga tre metodat, saktësia e parashikimit, është thelbësore për të përdorur me sukses AI në operacionet e përditshme. Simulimet mund të kryhen dhe prodhimi XAI mund të krahasohet me rezultatet në grupin e të dhënave të trajnimit, gjë që ndihmon në përcaktimin e saktësisë së parashikimit. Një nga teknikat më të njohura për ta arritur këtë quhet Shpjegimet e Modelit Lokal të Interpretueshëm-Agnostik (LIME), një teknikë që shpjegon parashikimin e klasifikuesve nga algoritmi i mësimit të makinës. 

Metoda e dytë është gjurmueshmërinë, e cila arrihet duke kufizuar mënyrën se si mund të merren vendime, si dhe duke vendosur një fushë më të ngushtë për rregullat dhe veçoritë e mësimit të makinerive. Një nga teknikat më të zakonshme të gjurmueshmërisë është DeepLIFT, ose Deep Learning Important FeaTures. DeepLIFT krahason aktivizimin e çdo neuroni me neuronin e tij referues, ndërsa demonstron një lidhje të gjurmueshme midis çdo neuroni të aktivizuar. Ajo tregon edhe varësitë mes tyre. 

Metoda e tretë dhe e fundit është të kuptuarit e vendimit, e cila është e përqendruar te njeriu, ndryshe nga dy metodat e tjera. Kuptimi i vendimeve përfshin edukimin e organizatës, veçanërisht ekipin që punon me AI, për t'i mundësuar ata të kuptojnë se si dhe pse IA merr vendime. Kjo metodë është thelbësore për krijimin e besimit në sistem. 

Parimet e shpjegueshme të AI

Për të siguruar një kuptim më të mirë të XAI-t dhe parimeve të tij, Instituti Kombëtar i Standardeve (NIST), i cili është pjesë e Departamentit të Tregtisë së SHBA-së, ofron përkufizime për katër parime të AI të shpjegueshme: 

  1. Një sistem AI duhet të ofrojë prova, mbështetje ose arsyetim për çdo rezultat. 
  2. Një sistem AI duhet të japë shpjegime që mund të kuptohen nga përdoruesit e tij. 
  3. Shpjegimi duhet të pasqyrojë me saktësi procesin e përdorur nga sistemi për të arritur në rezultatin e tij. 
  4. Sistemi i AI duhet të funksionojë vetëm në kushtet për të cilat është projektuar dhe nuk duhet të japë rezultate kur i mungon besimi i mjaftueshëm në rezultat. 

Këto parime mund të organizohen edhe më tej në: 

  • Me kuptim: Për të arritur parimin e kuptimshmërisë, një përdorues duhet të kuptojë shpjegimin e dhënë. Kjo mund të nënkuptojë gjithashtu se në rastin e një algoritmi AI që përdoret nga lloje të ndryshme përdoruesish, mund të ketë disa shpjegime. Për shembull, në rastin e një makine që drejton vetë, një shpjegim mund të jetë në linjën e…”Inteligjenca artificiale e kategorizoi qesen plastike në rrugë si një gur, dhe për këtë arsye ndërmori veprime për të shmangur goditjen e saj.” Ndërsa ky shembull do të funksiononte për shoferin, nuk do të ishte shumë i dobishëm për një zhvillues të AI që kërkon të korrigjojë problemin. Në atë rast, zhvilluesi duhet të kuptojë pse ka pasur një klasifikim të gabuar. 
  • Saktësia e shpjegimit: Ndryshe nga saktësia e daljes, saktësia e shpjegimit përfshin algoritmin e AI që shpjegon me saktësi se si arriti rezultatin e tij. Për shembull, nëse një algoritëm i miratimit të kredisë shpjegon një vendim të bazuar në të ardhurat e një aplikacioni kur në fakt ai bazohej në vendbanimin e aplikantit, shpjegimi do të ishte i pasaktë. 
  • Kufijtë e njohurive: Kufijtë e njohurive të AI mund të arrihen në dy mënyra, dhe përfshin të dhëna që janë jashtë ekspertizës së sistemit. Për shembull, nëse një sistem është ndërtuar për të klasifikuar speciet e shpendëve dhe i jepet një pamje e një mollë, ajo duhet të jetë në gjendje të shpjegojë se hyrja nuk është një zog. Nëse sistemit i jepet një pamje e paqartë, ai duhet të jetë në gjendje të raportojë se nuk është në gjendje të identifikojë zogun në imazh, ose përndryshe, se identifikimi i tij ka besim shumë të ulët. 

Roli i të dhënave në AI të shpjegueshme

Një nga komponentët më të rëndësishëm të AI të shpjegueshme janë të dhënat. 

Sipas Google, në lidhje me të dhënat dhe AI ​​të shpjegueshme, "një sistem AI kuptohet më mirë nga të dhënat themelore të trajnimit dhe procesi i trajnimit, si dhe nga modeli i AI që rezulton". Ky kuptim varet nga aftësia për të hartuar një model të trajnuar të AI në grupin e saktë të të dhënave të përdorur për ta trajnuar atë, si dhe në aftësinë për të ekzaminuar nga afër të dhënat. 

Për të rritur shpjegueshmërinë e një modeli, është e rëndësishme t'i kushtoni vëmendje të dhënave të trajnimit. Ekipet duhet të përcaktojnë origjinën e të dhënave të përdorura për të trajnuar një algoritëm, ligjshmërinë dhe etikën që rrethon marrjen e tij, çdo paragjykim të mundshëm në të dhëna dhe çfarë mund të bëhet për të zbutur çdo paragjykim. 

Një aspekt tjetër kritik i të dhënave dhe XAI është që të dhënat që nuk kanë lidhje me sistemin duhet të përjashtohen. Për të arritur këtë, të dhënat e parëndësishme nuk duhet të përfshihen në grupin e trajnimit ose në të dhënat hyrëse. 

Google ka rekomanduar një sërë praktikash për të arritur interpretueshmërinë dhe llogaridhënien: 

  • Planifikoni opsionet tuaja për të ndjekur interpretueshmërinë
  • Trajtoni interpretueshmërinë si një pjesë thelbësore të përvojës së përdoruesit
  • Dizenjoni modelin që të jetë i interpretueshëm
  • Zgjidhni metrikat për të pasqyruar qëllimin përfundimtar dhe detyrën përfundimtare
  • Kuptoni modelin e trajnuar
  • Komunikoni shpjegime për përdoruesit e modelit
  • Kryeni shumë testime për të siguruar që sistemi i AI po funksionon siç është menduar 

Duke ndjekur këto praktika të rekomanduara, organizata juaj mund të sigurojë që të arrijë AI të shpjegueshme, e cila është çelësi për çdo organizatë të drejtuar nga AI në mjedisin e sotëm. 

 

Alex McFarland është një gazetar dhe shkrimtar i AI që eksploron zhvillimet më të fundit në inteligjencën artificiale. Ai ka bashkëpunuar me startupe dhe publikime të shumta të AI në mbarë botën.