stub AI-forskere utvikler rask metode for å beregne konfidensintervaller, rapportering når modellen ikke bør stole på - Unite.AI
Kontakt med oss

Kunstig intelligens

AI-forskere utvikler rask metode for å beregne konfidensintervaller, rapportering når modellen ikke bør stole på

mm

Publisert

 on

Forskere fra MIT har nylig utviklet en teknikk som gjør det mulig for dyplæringsnettverksmodeller å raskt beregne konfidensnivåer, noe som kan hjelpe dataforskere og andre AI-brukere å vite når de skal stole på spådommene fra en modell.

AI-systemer basert på kunstige nevrale nettverk er ansvarlige for flere og flere beslutninger i disse dager, inkludert mange beslutninger som involverer helse og sikkerhet til mennesker. På grunn av dette bør nevrale nettverk ha en metode for å estimere tilliten til resultatene deres, slik at dataforskere kan fortelle hvor pålitelige spådommene deres er. Nylig utviklet et team av forskere fra Harvard og MIT en rask måte for nevrale nettverk å generere en indikasjon på en modells tillit sammen med dens spådommer.

Dyplæringsmodeller har blitt mer og mer sofistikerte i løpet av det siste tiåret, og nå kan de lett utkonkurrere mennesker på dataklassifiseringsoppgaver. Dyplæringsmodeller brukes i felt der folks helse og sikkerhet kan være i fare dersom de mislykkes, kjører autonome kjøretøy og diagnostiserer medisinske tilstander fra skanninger. I disse tilfellene er det ikke nok at en modell er 99 % nøyaktig, den 1 % av gangene som modellen feiler har potensial til å føre til katastrofe. Som et resultat må det være en måte som dataforskere kan bestemme hvor pålitelig en gitt prediksjon er.

Det er en håndfull måter som et konfidensintervall kan genereres sammen med spådommene til nevrale nettverk, men tradisjonelle metoder for å estimere usikkerhet for et nevralt nettverk er ganske sakte og beregningsmessig dyre. Nevrale nettverk kan være utrolig store og komplekse, fylt med milliarder av parametere. Bare å generere spådommer kan være beregningsmessig dyrt og ta betydelig tid, og å generere et konfidensnivå for spådommene tar enda lengre tid. De fleste tidligere metoder for å kvantifisere usikkerhet har basert seg på prøvetaking eller kjøring av et nettverk om og om igjen for å få et estimat av dets tillit. Dette er ikke alltid mulig for applikasjoner som krever høyhastighetstrafikk.

Som rapportert av MIT NewsAlexander Amini leder den kombinerte gruppen av forskere fra MIT og Harvard, og ifølge Amini akselererer metoden utviklet av deres forskere prosessen med å generere usikkerhetsestimater ved å bruke en teknikk kalt "dyp bevisregresjon". Amini forklarte via MIT at dataforskere krever både høyhastighetsmodeller og pålitelige estimater av usikkerhet slik at upålitelige modeller kan skjelnes. For å bevare både hastigheten til modellen og generere et usikkerhetsestimat, utviklet forskerne en måte å estimere usikkerhet fra bare en enkelt kjøring av modellen.

Forskerne utformet den nevrale nettverksmodellen på en slik måte at en sannsynlighetsfordeling ble generert ved siden av hver beslutning. Nettverket holder på bevis for sine beslutninger under opplæringsprosessen, og genererer en sannsynlighetsfordeling basert på bevisene. Bevisfordelingen representerer modellens tillit, og den representerer usikkerhet for både modellens endelige beslutning og de opprinnelige inputdataene. Å fange opp usikkerhet for både inputdata og beslutninger er viktig, da å redusere usikkerheten er avhengig av å kjenne kilden til usikkerheten.

Forskerne testet teknikken for usikkerhetsvurdering ved å bruke den på en datasynsoppgave. Etter at modellen ble trent på en serie bilder, genererte den både spådommer og usikkerhetsestimater. Nettverket projiserte riktig høy usikkerhet for tilfeller der feil prediksjon ble gjort. "Det var veldig kalibrert til feilene som nettverket gjør, som vi mener var en av de viktigste tingene i å bedømme kvaliteten på en ny usikkerhetsestimator," sa Amini angående modellens testresultater.

Forskerteamet fortsatte med å gjennomføre flere tester med nettverksarkitekturen deres. For å stressteste teknikken, testet de også dataene på «utenfor distribusjon»-data, datasett som består av objekter nettverket aldri hadde sett før. Som forventet rapporterte nettverket høyere usikkerhet for disse usynlige objektene. Når det ble trent på innendørsmiljøer, viste nettverket høy usikkerhet når det ble testet på bilder fra utendørsmiljøer. Testene viste at nettverket kunne fremheve når dets beslutninger var utsatt for høy usikkerhet og ikke burde stoles på under visse omstendigheter med høy risiko.

Forskerteamet rapporterte til og med at nettverket kunne skjelne når bilder hadde blitt behandlet. Da forskerteamet endret bilder med motstridende støy, merket nettverket de nylig endrede bildene med høye usikkerhetsestimater, til tross for at effekten var for subtil til å kunne ses av den gjennomsnittlige menneskelige observatøren.

Hvis teknikken viser seg å være pålitelig, kan dyp bevisregresjon forbedre sikkerheten til AI-modeller generelt. I følge Amini kan dyp bevisregresjon hjelpe folk til å ta forsiktige avgjørelser når de bruker AI-modeller i risikable situasjoner. Som Amini forklarte via MIT News:

"Vi begynner å se mye flere av disse [nevrale nettverk]-modellene sildre ut av forskningslaboratoriet og inn i den virkelige verden, inn i situasjoner som berører mennesker med potensielt livstruende konsekvenser. Enhver bruker av metoden, enten det er en lege eller en person i passasjersetet i et kjøretøy, må være klar over enhver risiko eller usikkerhet knyttet til denne avgjørelsen.»