Verbind je met ons

Artificial Intelligence

Nieuwe AI-gezichtsherkenningstechnologie gaat nog een stap verder

mm

Het lijkt erop dat het gebruik van kunstmatige intelligentie in gezichtsherkenningstechnologie tot nu toe het verst is gegroeid. Als ZDNet notities, tot nu toe bedrijven graag Microsoft hebben al gezichtsherkenningstechnologie ontwikkeld die gezichtsuitdrukking (FR) kan herkennen met behulp van emotietools. Maar de beperkende factor tot nu toe was dat deze tools beperkt waren tot acht, zogenaamde kernstaten –  woede, minachting, angst, walging, geluk, verdriet, verrassing of neutraal. 

Stapt nu in Japanse tech-ontwikkelaar Fujitsu, met op AI gebaseerde technologie die gezichtsherkenning een stap verder brengt in het volgen van geuite emoties.

De bestaande FR-technologie is, zoals ZDNet uitlegt, gebaseerd op “ihet identificeren van verschillende actie-eenheden (AU's) - dat zijn bepaalde gezichtsspierbewegingen die we maken en die kunnen worden gekoppeld aan specifieke emoties. In een gegeven voorbeeld: “als zowel de AU 'wangverhoger' als de AU 'liphoektrekker' samen worden geïdentificeerd, kan de AI concluderen dat de persoon die het analyseert gelukkig is.

Zoals een woordvoerder van Fujitsu uitlegde: "Het probleem met de huidige technologie is dat de AI getraind moet worden met enorme datasets voor elke AU. Hij moet weten hoe hij een AU vanuit alle mogelijke hoeken en posities kan herkennen. Maar we hebben daar niet genoeg beelden voor – dus meestal is het niet zo nauwkeurig."

Er is een grote hoeveelheid gegevens nodig om AI te trainen om effectief te zijn in het detecteren van emoties, het is erg moeilijk voor de momenteel beschikbare FR om echt te herkennen wat de onderzochte persoon voelt. En als de persoon niet voor de camera zit en er recht in kijkt, wordt de taak nog moeilijker. Veel experts hebben deze problemen bij sommigen bevestigd recent onderzoek.

Fujitsu beweert een oplossing te hebben gevonden om de kwaliteit van gezichtsherkenningsresultaten bij het detecteren van emoties te verbeteren. In plaats van een groot aantal afbeeldingen te gebruiken om de AI te trainen, heeft hun nieuw gemaakte tool de taak om "meer gegevens uit één foto halen.” Het bedrijf noemt dit 'normalisatieproces', waarbij foto's 'die vanuit een bepaalde hoek zijn genomen, worden omgezet in beelden die lijken op een frontale opname'.

Zoals de woordvoerder uitlegde, "Met dezelfde beperkte dataset kunnen we beter meer AU's detecteren, zelfs in foto's die vanuit een schuine hoek zijn genomen, en met meer AU's kunnen we complexe emoties identificeren, die subtieler zijn dan de kernuitdrukkingen die momenteel worden geanalyseerd."

Het bedrijf beweert dat het nu kan “emotionele veranderingen detecteren die zo uitgebreid zijn als nerveus gelach, met een detectienauwkeurigheid van 81%, een getal dat werd bepaald door middel van 'standaard evaluatiemethoden'. Ter vergelijking, volgens onafhankelijk onderzoek, Microsoft-tools hebben een nauwkeurigheidspercentage van 60% en hadden ook problemen met het detecteren van emoties wanneer het werkte met foto's die vanuit meer schuine hoeken waren genomen.

Als mogelijke toepassingen vermeldt Fujitsu dat zijn nieuwe tools onder meer kunnen worden gebruikt voor verkeersveiligheid.door zelfs kleine veranderingen in de concentratie van bestuurders te detecteren.”

Voormalig diplomaat en vertaler voor de VN, momenteel freelance journalist/schrijver/onderzoeker, gericht op moderne technologie, kunstmatige intelligentie en moderne cultuur.