stub Kaip paaiškinamas AI padidina patikimumą – Unite.AI
Susisiekti su mumis

Minties lyderiai

Kaip paaiškinamas AI padidina patikimumą ir patikimumą

mm

paskelbta

 on

Dirbtinis intelektas (AI) demokratizuojasi visose įmonėse, todėl jis pamažu įsilieja į mūsų egzistavimo struktūrą. Svarbus šio demokratizavimo aspektas yra tai, kad galutiniai vartotojai turėtų sugebėti visiškai suprasti procesą ir mechanizmus, kuriuos AI naudoja, kad padarytų išvadą arba kaip jis veikia, kad pasiektų norimus rezultatus. Kaip žmonės, mes turime giliai įsišaknijusį poreikį atskleisti bet kokio reiškinio, paspartinusio mūsų technologinę pažangą, „kodėl“ ir „kaip“. AI kontekste šis supratimas vadinamas „paaiškinamumu“.

Kodėl paaiškinamumas yra valandos poreikis?

Dažniausiai dirbtinį intelektą traktuojame kaip „juodąją dėžę“, kurioje žinome tik įvestis ir išvestis, bet kai kur naudojami procesai mums prarandami. Šią problemą apsunkina tai, kad algoritmai, kuriais vadovaujamasi populiariausių AI formų, pvz., sudėtingų giluminiu mokymusi pagrįstų numatymo sistemų ir natūralios kalbos apdorojimo (NLP), yra labai abstraktūs net patyrusiems specialistams.

Pasitikėjimas ir skaidrumas: Kad vartotojai pasitikėtų AI prognozėmis, jis turi turėti tam tikrą paaiškinamumo lygį. Pavyzdžiui, jei gydytojas turi rekomenduoti gydymą, pagrįstą AI prognozėmis, jis turi būti tikras dėl prognozės. Bankas turi visiškai pasitikėti sprendimu atmesti ar patvirtinti paskolą ir sugebėti tai pagrįsti visoms suinteresuotosioms šalims. Atrankai ir samdymui naudojamas AI turi įrodyti, kad pagrindiniai mechanizmai yra teisingi ir nešališki visoms kandidatų grupėms.

Padaro AI žmogiškesnį ir padidina pritaikymą: Mckinsey'e  Ataskaita apie AI būklę 2020 m sužinojome, kad gamintojas naudoja itin skaidrius modelius, kad priimtų iš savo gamyklos darbuotojų, kurie turi pasitikėti AI sprendimais dėl jų saugos.. Norint greitai pritaikyti dirbtinį intelektą, suinteresuotųjų šalių dalyvavimas yra pagrindinė kliūtis pereiti nuo paprastų taškinių sprendimų iki įmonės lygio ir gauti kuo daugiau naudos iš investicijų. Tai labai palengvinama, jei spektaklis yra paaiškinamas didesnei auditorijai. Verslo požiūriu paaiškinamumas pagerina bendrą vartotojo patirtį ir padidina klientų pasitenkinimą. Remiantis IBM instituto verslo vertės tyrimo išvadomis, 68 procentai aukščiausio lygio vadovų mano, kad per ateinančius trejus metus klientai reikalaus daugiau paaiškinimų iš AI.

Atskleiskite paklaidas ir pagerinkite modelio veikimą:  Kūrėjas turi žinoti, kaip jis gali pagerinti modelio veikimą ir kaip tiksliai jį derinti ir suderinti. Aiški paaiškinamumo sistema yra viena iš svarbiausių priemonių atlikti išsamią reikalingą analizę.

Gaukite ryškesnių, išsamių įžvalgų:  Norint visiškai suprasti visus AI pateiktus nurodymus, reikalingas visas 360 laipsnių vaizdas. Pavyzdžiui, jei dirbtinis intelektas naudojamas priimant sprendimą dėl investicijų, taip pat reikėtų žinoti jo pagrindimą, kad šis mokymasis būtų perkeltas į kitas sritis ir suprastų galimas tokio sprendimo priėmimo problemas. Tvirtas supratimas apie tai, kaip veikia AI, taip pat leis sprendimų priėmėjams atskleisti naujus naudojimo atvejus.

Taisyklės ir atskaitomybė: Keletas reglamentų, pvz., BDAR, įpareigoja teisę į paaiškinimą, kad būtų sprendžiamos atskaitomybės problemos, kylančios dėl automatizuoto sprendimų priėmimo proceso. Tokiose sistemose kaip autonominės transporto priemonės, jei kas nors negerai ir dėl to prarandama gyvybė ir turtas, reikia pakankamai žinių apie pagrindinę priežastį, kurią bus sunku tiksliai nustatyti juodosios dėžės sistemoje.

Kaip AI gali būti aiškiau paaiškinama?

Paaiškinamos dirbtinio intelekto sistemos (XAI) yra kuriamos naudojant skirtingus metodus, kurių pagrindinis dėmesys skiriamas modelio kaip visumos paaiškinimui arba individualaus numatymo motyvų paaiškinimui naudojant tam tikrą algoritmą.

Iš esmės visi paaiškinamumo metodai remiasi:

  • Modelio išskaidymas į atskirus komponentus)
  • Modelio numatymo vizualizacija (pavyzdžiui, jei modelis priskiria automobilį tam tikros markės automobiliui, jis paryškina dalį, dėl kurios jis buvo pažymėtas kaip toks)
  • Paaiškinimas Kasyba (naudojant mašininio mokymosi metodus norint rasti atitinkamus duomenis, paaiškinančius dirbtinio intelekto algoritmo numatymą).

Taikant vieną iš tokių metodų, vadinamų tarpinio serverio modeliavimu, paprastesnis ir suprantamesnis modelis, pavyzdžiui, sprendimų medis, naudojamas apytiksliai pavaizduoti sudėtingesnį AI modelį. Šie supaprastinti paaiškinimai suteikia gerą supratimą apie modelį aukštu lygiu, tačiau kartais gali nuslopinti tam tikrus niuansus.

Kitas metodas vadinamas „aiškinamumu pagal dizainą“. Šis metodas apriboja AI tinklo projektavimą ir mokymą nauju būdu, bandydamas sukurti bendrą tinklą iš mažesnių ir paprastesnių paaiškinamų dalių. Tai apima kompromisą tarp tikslumo lygio ir paaiškinamumo ir riboja tam tikrus metodus iš duomenų mokslininko įrankių rinkinio. Tai taip pat gali būti daug skaičiavimo reikalaujanti.

Dirbtinio intelekto mokymuose ir testavime taip pat gali būti naudojami agnostiniai duomenų tikrinimo metodai, tokie kaip vietinis interpretuojamas modelis (LIME) ir Shapley Additive ExPlanations (SHAP), ir jie turėtų būti pritaikyti siekiant didelio tikslumo naudojant F balą, tikslumą ir kitą metriką. Ir, žinoma, visi rezultatai turėtų būti stebimi ir tikrinami naudojant įvairius duomenis. Pavyzdžiui, naudojant LIME, organizacijos gali sukurti laikinus modelius, imituojančius neskaidrių algoritmų, pvz., mašininio mokymosi, prognozes. Šie LIME modeliai gali sukurti platų permutacijų spektrą, pagrįstą duotu duomenų rinkiniu ir atitinkama jo išvestimi, kuri vėliau gali būti naudojama mokant paprastus ir labiau interpretuojamus modelius kartu su išsamiais kiekvieno sprendimo ir (arba) prognozės paaiškinimų sąrašais. SHAP sistema, kurios pagrindai yra žaidimų teorija ir konkrečiai kooperatyvo žaidimų teorija, yra modelis, kuris yra . Jis derina optimalų kredito paskirstymą su vietiniais paaiškinimais, naudojant originalias Shapley vertes iš žaidimų teorijos ir jų palikuonių.

Principinės operacijos

Tačiau strategiškesniu lygmeniu dirbtinio intelekto patikimumo sistemos turėtų apimti platų principų rinkinį, skirtą užtikrinti tinkamus rezultatus tiek diegimo pradžioje, tiek laikui bėgant, kai modeliai vystosi besikeičiant aplinkybėms. Šios sistemos turėtų apimti bent tokius dalykus kaip:

  • Šališkumo aptikimas – visi duomenų rinkiniai turėtų būti išbraukti nuo šališkumo ir diskriminacinių požymių, o tada, kai jie taikomi mokymo modeliui, jiems suteikiamas tinkamas svoris ir diskrecija;
  • Žmogaus įsitraukimas – operatoriai turėtų turėti galimybę bet kuriuo metu tirti ir interpretuoti algoritmų rezultatus, ypač kai modeliai naudojami teisėsaugai ir pilietinių laisvių apsaugai;
  • Pagrindimas – visos prognozės turi atlaikyti patikrinimą, kuriam iš prigimties reikalingas didelis skaidrumas, kad išorės stebėtojai galėtų įvertinti procesus ir kriterijus, naudojamus rezultatams gauti;
  • Atkuriamumas – Patikimi AI modeliai turi būti nuoseklūs savo prognozėse ir turi būti labai stabilūs, kai susiduria su naujais duomenimis.

Tačiau į XAI reikėtų žiūrėti ne tik kaip į pelningumą didinančią priemonę, bet ir į atskaitomybę, kad institucijos galėtų paaiškinti ir pateisinti savo kūrinių poveikį visai visuomenei.

Balakrishna, populiariai žinomas kaip Bali DR, yra AI ir automatikos vadovas Infosys kur jis valdo „Infosys“ vidinę automatizavimą ir teikia nepriklausomas automatizavimo paslaugas, pritaikant produktus klientams. Balis „Infosys“ dirba daugiau nei 25 metus ir atliko pardavimo, programų valdymo ir pristatymo vaidmenis įvairiose geografinėse vietovėse ir pramonės vertikalėse.