Kunstig intelligens
Ny AI ansiktsgjenkjenningsteknologi går ett skritt videre

Det ser ut til at bruken av kunstig intelligens i ansiktsgjenkjenningsteknologi er en som har vokst lengst så langt. Som ZDNet notater, så langt selskaper liker Microsoft har allerede utviklet ansiktsgjenkjenningsteknologi som kan gjenkjenne ansiktsuttrykk (FR) ved bruk av følelsesverktøy. Men den begrensende faktoren så langt har vært at disse verktøyene var begrenset til åtte, såkalte kjernetilstander – sinne, forakt, frykt, avsky, lykke, tristhet, overraskelse eller nøytral.
Går nå inn i japansk teknologiutvikler Fujitsu, med AI-basert teknologi som tar ansiktsgjenkjenning ett skritt videre i sporing av uttrykte følelser.
Den eksisterende FR-teknologien er basert, som ZDNet forklarer, på "iidentifisere ulike handlingsenheter (AUer) – det vil si visse ansiktsmuskelbevegelser vi gjør og som kan knyttes til spesifikke følelser.» I et gitt eksempel, "hvis både AU 'kinnløfteren' og AU 'leppehjørnetrekkeren' er identifisert sammen, kan AI konkludere med at personen den analyserer er fornøyd.
Som en talsperson for Fujitsu forklarte, «Problemet med dagens teknologi er at AI-en må trenes på enorme datasett for hver AU. Den må vite hvordan den skal gjenkjenne en AU fra alle mulige vinkler og posisjoner. Men vi har ikke nok bilder til det – så vanligvis er det ikke så nøyaktig.»
En stor mengde data som trengs for å trene opp AI til å være effektiv i å oppdage følelser, det er veldig vanskelig for den nåværende tilgjengelige FR å virkelig gjenkjenne hva den undersøkte personen føler. Og hvis personen ikke sitter foran kameraet og ser rett inn i det, blir oppgaven enda vanskeligere. Mange eksperter har bekreftet disse problemene hos noen nyere forskning.
Fujitsu hevder at de har funnet en løsning for å øke kvaliteten på ansiktsgjenkjenningsresultater for å oppdage følelser. I stedet for å bruke et stort antall bilder for å trene AI, har deres nyopprettede verktøy oppgaven å "trekke ut mer data fra ett bilde." Selskapet kaller denne "normaliseringsprosessen", som innebærer å konvertere bilder "tatt fra en bestemt vinkel til bilder som ligner et frontalt skudd."
Som talsmannen forklarte, "Med det samme begrensede datasettet kan vi bedre oppdage flere AU-er, selv i bilder tatt fra en skrå vinkel, og med flere AU-er kan vi identifisere komplekse følelser, som er mer subtile enn kjerneuttrykkene som er analysert for øyeblikket."
Selskapet hevder at det nå kan "oppdage emosjonelle endringer som er like forseggjort som nervøs latter, med en gjenkjenningsnøyaktighet på 81 %, et tall som ble bestemt gjennom "standard evalueringsmetoder". Til sammenligning, iht uavhengig forskning, Microsoft-verktøy har en nøyaktighetsgrad på 60 %, og hadde også problemer med å oppdage følelser når det jobbet med bilder tatt fra mer skrå vinkler.
Som potensielle bruksområder nevner Fujitsu at deres nye verktøy blant annet kan brukes for trafikksikkerhet.ved å oppdage selv små endringer i sjåførenes konsentrasjon.»