Følg os

Kunstig intelligens

Ny AI-ansigtsgenkendelsesteknologi gĂĄr et skridt videre

mm

Det ser ud til, at brugen af ​​kunstig intelligens i ansigtsgenkendelsesteknologi er en, der er vokset længst indtil videre. Som ZDNet noter, indtil videre kan virksomheder lide microsoft har allerede udviklet ansigtsgenkendelsesteknologi, der kan genkende ansigtsudtryk (FR) ved brug af følelsesværktøjer. Men den begrænsende faktor hidtil har været, at disse værktøjer var begrænset til otte, sĂĄkaldte kernetilstande –  vrede, foragt, frygt, afsky, lykke, tristhed, overraskelse eller neutral. 

Træder nu ind i japansk teknologiudvikler Fujitsu, med AI-baseret teknologi, der tager ansigtsgenkendelse et skridt videre i sporing af udtrykte følelser.

Den eksisterende FR-teknologi er, som ZDNet forklarer, baseret på "identificerer forskellige handlingsenheder (AU'er) – det vil sige visse ansigtsmuskelbevægelser, vi laver, og som kan knyttes til specifikke følelser." I et givet eksempel, "hvis både AU 'kindløfteren' og AU 'læbehjørnetrækkeren' er identificeret sammen, kan AI'en konkludere, at den person, den analyserer, er glad.

Som en talsmand for Fujitsu forklarede, "Problemet med den nuværende teknologi er, at AI'en skal trænes på enorme datasæt for hver AU. Den skal vide, hvordan den genkender en AU fra alle mulige vinkler og positioner. Men vi har ikke nok billeder til det – så normalt er det ikke så præcist."

En stor mængde data, der er nødvendig for at træne AI til at være effektiv til at opdage følelser, det er meget svært for den aktuelt tilgængelige FR virkelig at genkende, hvad den undersøgte person føler. Og hvis personen ikke sidder foran kameraet og kigger lige ind i det, bliver opgaven endnu sværere. Mange eksperter har bekræftet disse problemer hos nogle nyere forskning.

Fujitsu hævder, at det har fundet en løsning til at øge kvaliteten af ​​ansigtsgenkendelsesresultater til at opdage følelser. I stedet for at bruge et stort antal billeder til at træne AI, har deres nyoprettede værktøj til opgave at "trække flere data ud af ét billede." Virksomheden kalder denne 'normaliseringsproces', som involverer at konvertere billeder "taget fra en bestemt vinkel til billeder, der ligner et frontalt billede."

Som talsmanden forklarede, "Med det samme begrænsede datasæt kan vi bedre opdage flere AU'er, selv i billeder taget fra en skrå vinkel, og med flere AU'er kan vi identificere komplekse følelser, som er mere subtile end de kerneudtryk, der i øjeblikket analyseres."

Virksomheden hævder, at det nu kan "opdage følelsesmæssige forandringer lige så omfattende som nervøs latter, med en detektionsnøjagtighed på 81 %, et tal, der blev bestemt ved hjælp af 'standardevalueringsmetoder'." Til sammenligning er iflg uafhængig forskning, Microsoft-værktøjer har en nøjagtighed på 60%, og havde også problemer med at opdage følelser, når det arbejdede med billeder taget fra mere skrå vinkler.

Som de potentielle applikationer nævner Fujitsu, at dets nye værktøjer blandt andet kan bruges til trafiksikkerhed "ved at registrere selv små ændringer i bilisternes koncentration.”

Tidligere diplomat og oversætter for FN, i øjeblikket freelance journalist/skribent/forsker med fokus på moderne teknologi, kunstig intelligens og moderne kultur.