Umjetna inteligencija
Istraživači razvijaju alat "DeepTrust" za pomoć u povećanju pouzdanosti umjetne inteligencije

Sigurnost i pouzdanost umjetne inteligencije (AI) jedan je od najvećih aspekata tehnologije. Konstantno se poboljšava i na njemu rade vrhunski stručnjaci unutar različitih područja, a bit će ključno za potpunu implementaciju umjetne inteligencije u cijelom društvu.
Dio tog novog rada dolazi sa Sveučilišta Južne Kalifornije, gdje su istraživači USC Viterbi Engineering razvili novi alat koji može generirati automatske pokazatelje jesu li algoritmi umjetne inteligencije pouzdani u svojim podacima i predviđanjima.
Istraživanje je objavljeno u Granice u umjetnoj inteligenciji, pod nazivom “Ipak postoji nada: kvantificiranje mišljenja i pouzdanosti u neuronskim mrežama”. Autori rada su Mingxi Cheng, Shahin Nazarian i Paul Bogdan iz USC Cyber Physical Systems Group.
Pouzdanost neuronskih mreža
Jedan od najvećih zadataka u ovom području je natjerati neuronske mreže da generiraju predviđanja kojima se može vjerovati. U mnogim slučajevima to je ono što zaustavlja potpuno usvajanje tehnologije koja se oslanja na AI.
Na primjer, samovozeća vozila moraju djelovati neovisno i donositi točne odluke na autopilotu. Moraju biti sposobni iznimno brzo donositi te odluke, dok dešifriraju i prepoznaju objekte na cesti. To je ključno, posebno u scenarijima u kojima bi tehnologija morala dešifrirati razliku između ležećeg leđa, nekog drugog objekta ili živog bića.
Drugi scenariji uključuju odluku samovozećeg vozila što učiniti kada se drugo vozilo sučeli s njim, a najsloženija odluka od svih je ako to samovozeće vozilo treba odlučiti između udarca u ono što doživljava kao drugo vozilo, neki predmet ili ili živo biće.
Sve to znači da ulažemo veliku količinu povjerenja u sposobnost softvera samovozećeg vozila da donese ispravnu odluku u samo djeliću sekunde. Postaje još teže kada postoje proturječne informacije iz različitih senzora, kao što je računalni vid iz kamera i Lidar.
Glavni autor Minxi Cheng odlučio je pokrenuti ovaj projekt nakon razmišljanja: “Čak i ljudi mogu biti neodlučni u određenim scenarijima donošenja odluka. U slučajevima koji uključuju proturječne informacije, zašto nam strojevi ne mogu reći kad oni ne znaju?”
DeepTrust
Alat koji su izradili istraživači zove se DeepTrust i može kvantificirati količinu nesigurnosti, prema Paulu Bogdanu, izvanrednom profesoru na Odjelu za elektrotehniku i računalno inženjerstvo Ming Hsieh.
Tim je proveo gotovo dvije godine razvijajući DeepTrust, prvenstveno koristeći subjektivnu logiku za procjenu neuronskih mreža. U jednom primjeru rada alata, mogao je pogledati ankete o predsjedničkim izborima 2016. i predvidjeti da postoji veća margina pogreške za pobjedu Hillary Clinton.
Alat DeepTrust također olakšava testiranje pouzdanosti algoritama umjetne inteligencije koji se inače treniraju na milijunima podatkovnih točaka. Drugi način da to učinite je neovisna provjera svake od podatkovnih točaka radi testiranja točnosti, što je iznimno dugotrajan zadatak.
Prema istraživačima, arhitektura ovih sustava neuronske mreže je točnija, a točnost i povjerenje mogu se maksimizirati istovremeno.
“Koliko znamo, ne postoji model kvantifikacije povjerenja ili alat za duboko učenje, umjetnu inteligenciju i strojno učenje. Ovo je prvi pristup i otvara nove pravce istraživanja”, kaže Bogdan.
Bogdan također vjeruje da bi DeepTrust mogao pomoći u guranju umjetne inteligencije do točke u kojoj je "svjesna i prilagodljiva".