Kunstmatige intelligentie
Nieuwe AI-gezichtsherkenningstechnologie gaat een stap verder

Het lijkt erop dat het gebruik van kunstmatige intelligentie in gezichtsherkenningstechnologie een van de gebieden is die het verst is gevorderd tot nu toe. Zoals ZDNet opmerkt, hebben bedrijven als Microsoft al gezichtsherkenningstechnologie ontwikkeld die gezichtsuitdrukkingen (FR) kan herkennen met behulp van emotietools. Maar de beperkende factor tot nu toe is geweest dat deze tools beperkt waren tot acht, zogenaamde kernstaten – boosheid, minachting, angst, afkeer, geluk, verdriet, verrassing of neutraal.
Nu komt de Japanse technologieontwikkelaar Fujitsu met AI-gebaseerde technologie die gezichtsherkenning een stap verder zet in het volgen van uitgedrukte emoties.
De bestaande FR-technologie is gebaseerd, zoals ZDNet uitlegt, op “het identificeren van verschillende actie-eenheden (AUs) – dat wil zeggen, bepaalde gezichtsspieren die we maken en die kunnen worden gekoppeld aan specifieke emoties.” In een gegeven voorbeeld, “als zowel de AU ‘wangoptrekker’ als de AU ‘liphoektrekker’ samen worden geïdentificeerd, kan de AI concluderen dat de persoon die het analyseert gelukkig is.
Zoals een woordvoerder van Fujitsu uitlegde, “het probleem met de huidige technologie is dat de AI getraind moet worden op enorme datasets voor elke AU. Het moet weten hoe het een AU vanuit alle mogelijke hoeken en posities kan herkennen. Maar we hebben niet genoeg afbeeldingen daarvoor – dus meestal is het niet zo nauwkeurig.”
Een grote hoeveelheid gegevens is nodig om de AI te trainen om effectief te zijn in het detecteren van emoties, het is heel moeilijk voor de huidige FR om echt te herkennen wat de onderzochte persoon voelt. En als de persoon niet recht voor de camera zit en ernaar kijkt, wordt de taak nog moeilijker. Veel deskundigen hebben deze problemen bevestigd in enkele recente onderzoeken.
Fujitsu beweert dat het een oplossing heeft gevonden om de kwaliteit van gezichtsherkenningresultaten te verbeteren bij het detecteren van emoties. In plaats van een groot aantal afbeeldingen te gebruiken om de AI te trainen, heeft hun nieuw gecreëerde tool de taak om meer gegevens uit één afbeelding te halen.” Het bedrijf noemt dit ‘normalisatieproces’, dat het omzetten van afbeeldingen “genomen vanuit een bepaalde hoek in afbeeldingen die lijken op een frontale opname” inhoudt.
Zoals de woordvoerder uitlegde, “Met hetzelfde beperkte dataset kunnen we meer AUs detecteren, zelfs in afbeeldingen genomen vanuit een schuine hoek, en met meer AUs kunnen we complexe emoties identificeren, die subtieler zijn dan de kernuitdrukkingen die momenteel worden geanalyseerd.”
Het bedrijf beweert dat het nu emotionele veranderingen kan detecteren die zo ingewikkeld zijn als nerveus lachen, met een detectie nauwkeurigheid van 81%, een aantal dat werd bepaald door ‘standaard evaluatiemethoden’.” In vergelijking hiermee heeft onafhankelijk onderzoek aangetoond dat Microsoft-tools een nauwkeurigheid van 60% hebben en problemen hadden met het detecteren van emoties wanneer ze werkten met afbeeldingen genomen vanuit meer schuine hoeken.
Als potentiële toepassingen noemt Fujitsu dat zijn nieuwe tools onder andere kunnen worden gebruikt voor verkeersveiligheid door zelfs kleine veranderingen in de concentratie van bestuurders te detecteren.”












