škrbina Google ustvari nov razložljiv program AI za izboljšanje preglednosti in odpravljanja napak - Unite.AI
Povežite se z nami

etika

Google ustvarja nov razložljiv program AI za izboljšanje preglednosti in odpravljanja napak

mm

objavljeno

 on

Ravno pred kratkim je Google napovedal ustvarjanje nove platforme v oblaku, namenjene pridobivanju vpogleda v to, kako program AI sprejema odločitve, kar olajša odpravljanje napak v programu in poveča preglednost. Kot poroča Register, se platforma v oblaku imenuje Explainable AI in označuje velik poskus Googla, da vlaga v razložljivost AI.

Umetne nevronske mreže se uporabljajo v številnih, morda večini, glavnih sistemov umetne inteligence, ki se danes uporabljajo v svetu. Nevronska omrežja, ki poganjajo glavne aplikacije umetne inteligence, so lahko izredno zapletena in velika, in ko kompleksnost sistema raste, postaja vse težje intuitirati, zakaj je sistem sprejel določeno odločitev. Kot pojasnjuje Google v svoji beli knjigi, ko postajajo sistemi AI zmogljivejši, postanejo tudi bolj zapleteni in jih je zato težje odpraviti. Ko se to zgodi, se izgubi tudi preglednost, kar pomeni, da je pristranske algoritme težko prepoznati in obravnavati.

Dejstvo, da je sklepanje, ki vodi vedenje kompleksnih sistemov, tako težko razlagati, ima pogosto drastične posledice. Poleg tega, da se je težko boriti proti pristranskosti umetne inteligence, je lahko izredno težko ločiti lažne korelacije od resnično pomembnih in zanimivih korelacij.

Mnoga podjetja in raziskovalne skupine raziskujejo, kako rešiti problem "črne skrinjice" umetne inteligence in ustvariti sistem, ki ustrezno pojasnjuje, zakaj je določene odločitve sprejela umetna inteligenca. Googlova platforma Explainable AI predstavlja lastno ponudbo za spopadanje s tem izzivom. Razložljiv AI je sestavljen iz treh različnih orodij. Prvo orodje je sistem, ki opisuje, katere funkcije je izbral umetna inteligenca, in prikaže tudi rezultat pripisovanja, ki predstavlja obseg vpliva, ki ga ima določena funkcija na končno napoved. Googlovo poročilo o orodju daje primer napovedovanja, kako dolgo bo trajala vožnja s kolesom na podlagi spremenljivk, kot so padavine, trenutna temperatura, dan v tednu in čas začetka. Ko omrežje izda odločitev, se posreduje povratna informacija, ki prikazuje, katere funkcije so najbolj vplivale na napovedi.

Kako to orodje zagotavlja takšne povratne informacije v primeru slikovnih podatkov? V tem primeru orodje ustvari prekrivanje, ki poudari področja slike, ki so najbolj vplivala na upodobljeno odločitev.

Drugo orodje, ki ga najdemo v kompletu orodij, je orodje »Kaj če«, ki prikaže morebitna nihanja v zmogljivosti modela, ko se spreminjajo posamezni atributi. Nazadnje, zadnje orodje, ki omogoča, je mogoče nastaviti tako, da daje vzorčne rezultate pregledovalcem po doslednem urniku.

Dr. Andrew Moore, Googlov glavni znanstvenik za AI in strojno učenje, je opisal navdih za projekt. Moore je pojasnil, da je pred približno petimi leti akademska skupnost začela postajati zaskrbljena zaradi škodljivih stranskih produktov uporabe umetne inteligence in da je Google želel zagotoviti, da se njihovi sistemi uporabljajo le na etični način. Moore je opisal incident, v katerem je podjetje poskušalo oblikovati program za računalniški vid, ki bi gradbene delavce opozoril, če nekdo ne nosi čelade, vendar so postali zaskrbljeni, da bi lahko nadzor šel predaleč in postal nečloveški. Moore je dejal, da obstaja podoben razlog, da se je Google odločil, da ne bo izdal splošnega API-ja za prepoznavanje obrazov, saj je podjetje želelo imeti večji nadzor nad tem, kako se uporablja njihova tehnologija, in zagotoviti, da se uporablja le na etični način.

Moore je še poudaril zakaj je bilo tako pomembno, da je odločitev AI razložljiva:

»Če imate varnostno kritičen sistem ali družbeno pomembno stvar, ki ima lahko nenamerne posledice, če menite, da je vaš model naredil napako, morate to znati diagnosticirati. Želimo natančno razložiti, kaj razložljivost lahko in česa ne. To ni zdravilo.