Connect with us

Kunstig intelligens

Forskere utvikler “DeepTrust”-verktøyet for å øke tillit til kunstig intelligens

mm

Sikkerheten og tillit til kunstig intelligens (AI) er ett av de største aspektene ved teknologien. Den blir konstant forbedret og arbeidet med av topp-eksperter innen de forskjellige feltene, og det vil være avgjørende for full implementering av AI i samfunnet.

Noe av denne nye arbeidet kommer fra University of Southern California, hvor USC Viterbi Engineering-forskere har utviklet et nytt verktøy som kan generere automatiske indikatorer for om AI-algoritmer er pålitelige i deres data og prediksjoner.

Forskningen ble publisert i Frontiers in Artificial Intelligence, med tittelen “There is Hope After All: Quantifying Opinion and Trustworthiness in Neural Networks”. Forfatterne av artikkelen inkluderer Mingxi Cheng, Shahin Nazarian og Paul Bogdan fra USC Cyber Physical Systems Group.

Tillit til neurale nettverk

En av de største oppgavene i dette området er å få neurale nettverk til å generere prediksjoner som kan stoles på. I mange tilfeller er dette det som stopper full adopsjon av teknologi som avhenger av AI.

For eksempel må selvkjørende kjøretøy kunne handle uavhengig og ta nøyaktige beslutninger på autopilot. De må være i stand til å ta disse beslutningene ekstremt raskt, samtidig som de tolker og gjenkjenner objekter på veien. Dette er kritisk, spesielt i scenarier der teknologien må skille mellom en fartshumper, et annet objekt eller et levende vesen.

Andre scenarier inkluderer selvkjørende kjøretøy som bestemmer hva de skal gjøre når et annet kjøretøy møter dem frontalt, og den mest komplekse beslutningen av alle er om selvkjørende kjøretøyet må velge mellom å treffe det de oppfatter som et annet kjøretøy, et objekt eller et levende vesen.

Dette betyr at vi plasserer en ekstrem mengde tillit i selvkjørende kjøretøyets programvares evne til å ta riktige beslutninger på brøkdelen av et sekund. Det blir enda mer vanskelig når det er motstridende informasjon fra forskjellige sensorer, som datavisjon fra kameraer og Lidar.

Hovedforfatter Minxi Cheng bestemte seg for å ta opp dette prosjektet etter å ha tenkt: “Selv mennesker kan være usikre i visse beslutningssituasjoner. I tilfeller med motstridende informasjon, hvorfor kan ikke maskiner fortelle oss når de ikke vet?”

DeepTrust

Verktøyet som ble skapt av forskerne heter DeepTrust, og det kan kvantifisere mengden usikkerhet, ifølge Paul Bogdan, en associate professor i Ming Hsieh Department of Electrical and Computer Engineering.

Laget brukte nesten to år på å utvikle DeepTrust, hovedsakelig ved å bruke subjektiv logikk til å vurdere neurale nettverk. I ett eksempel på at verktøyet fungerer, kunne det se på meningsmålingene fra presidentvalget i 2016 og forutsi at det var en større feilmargin for Hillary Clinton å vinne.

DeepTrust-verktøyet gjør det også enklere å teste påliteligheten av AI-algoritmer som vanligvis er trent på opptil millioner av datapunkter. Den andre måten å gjøre dette på er ved å uavhengig sjekke hver enkelt datapunkt for å teste nøyaktigheten, som er en ekstremt tidskrevende oppgave.

Ifølge forskerne er arkitekturen til disse neurale nettverkssystemene mer nøyaktig, og nøyaktighet og tillit kan maksimeres samtidig.

“Så vidt vi vet, finnes det ingen tillitskvantifiseringsmodell eller verktøy for dypt læring, kunstig intelligens og maskinlæring. Dette er den første tilnærmingen og åpner nye forskningsretninger,” sier Bogdan.

Bogdan tror også at DeepTrust kan hjelpe med å skyve AI fremover til et punkt der det er “bevisst og adaptivt”.

Alex McFarland er en AI-journalist og forfatter som utforsker de nyeste utviklingene innen kunstig intelligens. Han har samarbeidet med tallrike AI-startups og publikasjoner verden over.