Kontakt med oss

Kunstig intelligens

Studie viser at AI-modeller ikke samsvarer med menneskelig visuell prosessering

mm

En ny studie fra York University viser at dype konvolusjonelle nevrale nettverk (DCNN) ikke samsvarer med menneskelig visuell prosessering ved å bruke konfigurell formoppfatning. I følge professor James Elder, medforfatter av studien, kan dette ha alvorlige og farlige implikasjoner i den virkelige verden for AI-applikasjoner. 

Den nye studien med tittelen "Dyplæringsmodeller klarer ikke å fange den konfigurelle naturen til menneskelig formoppfatning” ble publisert i tidsskriftet Cell Press iScience. 

Det var en samarbeidsstudie av Elder, som innehar York Research Chair in Human and Computer Vision, samt meddirektørstillingen ved Yorks Center for AI & Society, og professor Nicholas Baker, som er assisterende psykologiprofessor og tidligere VISTA postdoktor ved York.

Roman visuell stimuli "Frankensteins" 

Teamet stolte på nye visuelle stimuli referert til som "Frankensteins", som hjalp dem med å utforske hvordan både den menneskelige hjernen og DCNN-er behandler holistiske, konfigurelle objektegenskaper. 

«Frankensteins er ganske enkelt gjenstander som er tatt fra hverandre og satt sammen igjen på feil vei,» sier Elder. "Som et resultat har de alle de rette lokale funksjonene, men på feil steder." 

Studien fant at DCNN-er ikke blir forvirret av Frankensteins slik det menneskelige visuelle systemet er. Dette avslører en ufølsomhet for konfigurasjonsobjektegenskaper. 

"Våre resultater forklarer hvorfor dype AI-modeller mislykkes under visse forhold og peker på behovet for å vurdere oppgaver utover gjenkjenning av objekter for å forstå visuell prosessering i hjernen," fortsetter Elder. "Disse dype modellene har en tendens til å ta "snarveier" når de løser komplekse gjenkjenningsoppgaver. Selv om disse snarveiene kan fungere i mange tilfeller, kan de være farlige i noen av de virkelige AI-applikasjonene vi for tiden jobber med med våre industri- og regjeringspartnere.»

Bilde: York University

Implikasjoner i den virkelige verden

Elder sier at en av disse applikasjonene er trafikkvideosikkerhetssystemer. 

"Gjenstandene i et travelt trafikksted - kjøretøyene, syklene og fotgjengerne - hindrer hverandre og kommer til øyet til en sjåfør som et virvar av frakoblede fragmenter," sier han. "Hjernen må gruppere disse fragmentene riktig for å identifisere de riktige kategoriene og plasseringene til objektene. Et AI-system for trafikksikkerhetsovervåking som bare er i stand til å oppfatte fragmentene individuelt, vil mislykkes i denne oppgaven, og potensielt misforstå risikoen for sårbare trafikanter.» 

Forskerne sier også at modifikasjoner av trening og arkitektur rettet mot å gjøre nettverk mer hjernelignende ikke oppnådde konfigurasjonsbehandling. Ingen av nettverkene kunne nøyaktig forutsi prøve-for-prøve menneskelige objektdommer. 

"Vi spekulerer i at for å matche menneskelig konfigurasjonssensitivitet, må nettverk trenes til å løse et bredere spekter av objektoppgaver utenfor kategorigjenkjenning," konkluderer Elder

Alex McFarland er en AI-journalist og skribent som utforsker den siste utviklingen innen kunstig intelligens. Han har samarbeidet med en rekke AI-startups og publikasjoner over hele verden.