stubs Izskaidrojams AI, izmantojot izteiksmīgas Būla formulas — Unite.AI
Savienoties ar mums

Domu vadītāji

Izskaidrojams AI, izmantojot izteiksmīgas Būla formulas

mm

Izdots

 on

Sprādziens mākslīgā intelekta (AI) un mašīnmācīšanās lietojumprogrammu jomā pārņem gandrīz katru nozari un dzīves daļu.

Taču tā izaugsme neiztiek bez ironijas. Lai gan AI pastāv, lai vienkāršotu un/vai paātrinātu lēmumu pieņemšanu vai darbplūsmas, metodoloģija, kā to izdarīt, bieži ir ārkārtīgi sarežģīta. Patiešām, daži “melnās kastes” mašīnmācīšanās algoritmi ir tik sarežģīti un daudzšķautņaini, ka tie var izaicināt vienkāršu skaidrojumu, pat ja tos radījuši datorzinātnieki.

Tas var būt diezgan problemātiski, ja noteiktus lietošanas gadījumus, piemēram, finanšu un medicīnas jomā, nosaka nozares labākā prakse vai valdības noteikumi, kas prasa pārredzamus skaidrojumus par AI risinājumu iekšējo darbību. Un, ja šīs lietojumprogrammas nav pietiekami izteiksmīgas, lai atbilstu izskaidrojamības prasībām, tās var kļūt nederīgas neatkarīgi no to vispārējās efektivitātes.

Lai risinātu šo mīklu, mūsu komanda vietnē Fidelity lietišķo tehnoloģiju centrs (FCAT) Sadarbībā ar Amazon Quantum Solutions Lab ir ierosinājusi un ieviesusi interpretējamu mašīnmācīšanās modeli Explainable AI (XAI), pamatojoties uz izteiksmīgām Būla formulām. Šāda pieeja var ietvert jebkuru operatoru, ko var pielietot vienam vai vairākiem Būla mainīgajiem, tādējādi nodrošinot augstāku izteiksmi salīdzinājumā ar stingrākām, uz noteikumiem balstītām un uz koku balstītām pieejām.

Jūs varat izlasīt pilna papīra šeit, lai iegūtu visaptverošu informāciju par šo projektu.

Mūsu hipotēze bija tāda, ka, tā kā modeļi, piemēram, lēmumu koki, var kļūt dziļi un grūti interpretējami, nepieciešamība atrast izteiksmīgu likumu ar zemu sarežģītību, bet augstu precizitāti bija neatrisināma optimizācijas problēma, kas bija jāatrisina. Turklāt, vienkāršojot modeli, izmantojot šo progresīvo XAI pieeju, mēs varētu gūt papildu priekšrocības, piemēram, atklāt aizspriedumus, kas ir svarīgi ētiskas un atbildīgas ML lietošanas kontekstā; vienlaikus atvieglojot modeļa apkopi un uzlabošanu.

Mēs ierosinājām pieeju, kuras pamatā ir izteiksmīgas Būla formulas, jo tās definē noteikumus ar regulējamu sarežģītību (vai interpretējamību), saskaņā ar kuriem tiek klasificēti ievades dati. Šāda formula var ietvert jebkuru operatoru, ko var pielietot vienam vai vairākiem Būla mainīgajiem (piemēram, And vai AtLeast), tādējādi nodrošinot augstāku izteiksmi salīdzinājumā ar stingrākām uz kārtulām un koku balstītām metodoloģijām.

Šajā uzdevumā mums ir divi konkurējoši mērķi: maksimizēt algoritma veiktspēju, vienlaikus samazinot tā sarežģītību. Tādējādi, tā vietā, lai izmantotu tipisko pieeju, izmantojot vienu no divām optimizācijas metodēm – vairāku mērķu apvienošanu vienā vai viena no mērķiem ierobežošanu, mēs izvēlējāmies savā formulējumā iekļaut abus. To darot un nezaudējot vispārīgumu, mēs galvenokārt izmantojam līdzsvarotu precizitāti kā galveno veiktspējas rādītāju.

Turklāt, iekļaujot tādus operatorus kā AtLeast, mūs motivēja ideja risināt vajadzību pēc ļoti interpretējamiem kontrolsarakstiem, piemēram, medicīnisko simptomu saraksta, kas norāda uz konkrētu stāvokli. Ir iespējams, ka lēmums tiktu pieņemts, izmantojot šādu simptomu kontrolsarakstu tādā veidā, ka pozitīvai diagnozei jābūt minimālam skaitam. Tāpat arī finanšu jomā banka var izlemt, vai piešķirt klientam kredītu, pamatojoties uz noteiktu faktoru skaitu no lielāka saraksta.

Mēs veiksmīgi ieviesām savu XAI modeli un salīdzinājām to ar dažām publiskām datu kopām attiecībā uz kredītvēsturi, klientu uzvedību un veselības stāvokli. Mēs atklājām, ka mūsu modelis kopumā ir konkurētspējīgs ar citām labi zināmām alternatīvām. Mēs arī atklājām, ka mūsu XAI modeli potenciāli var darbināt ar speciālu aparatūru vai kvantu ierīcēm, lai atrisinātu ātru veselu skaitļu lineāro programmēšanu (ILP) vai kvadrātisko neierobežotu bināro optimizāciju (QUBO). QUBO risinātāju pievienošana samazina iterāciju skaitu, tādējādi radot paātrinājumu, ātri ierosinot nelokālus gājienus.

Kā minēts, izskaidrojamiem AI modeļiem, kuros izmanto Būla formulas, var būt daudz pielietojumu veselības aprūpē un Fidelity finanšu jomā (piemēram, kredītpunktu noteikšana vai novērtējums, kāpēc daži klienti, iespējams, ir izvēlējušies produktu, bet citi to nedarīja). Izveidojot šos interpretējamos noteikumus, mēs varam iegūt augstāku ieskatu līmeni, kas var radīt turpmākus uzlabojumus produktu izstrādē vai pilnveidošanā, kā arī optimizēt mārketinga kampaņas.

Pamatojoties uz mūsu atklājumiem, mēs esam noteikuši, ka izskaidrojams AI, izmantojot izteiksmīgas Būla formulas, ir gan piemērots, gan vēlams tiem lietošanas gadījumiem, kas nosaka turpmāku izskaidrojamību. Turklāt, tā kā kvantu skaitļošana turpina attīstīties, mēs paredzam iespēju iegūt potenciālus paātrinājumus, izmantojot to un citus īpašam nolūkam paredzētus aparatūras paātrinātājus.

Turpmākais darbs var būt vērsts uz šo klasifikatoru piemērošanu citām datu kopām, jaunu operatoru ieviešanu vai šo jēdzienu piemērošanu citiem lietošanas gadījumiem.

Eltons Džu ir kvantu pētniecības zinātnieks Fidelity lietišķo tehnoloģiju centrs (FCAT), Fidelity Investments grupa, kas ir katalizators sasniegumiem pētniecībā un tehnoloģijās. Plaši interesējoties par kvantu skaitļošanas, finanšu un mākslīgā intelekta krustpunktu, Dr. Zhu vada Fidelity pētījumu par to, kā kvantu skaitļošanu var izmantot dažādos lietošanas gadījumos.