Künstliche Intelligenz
Neue AI-Gesichtserkennungstechnologie geht einen Schritt weiter

Es scheint, dass die Verwendung von künstlicher Intelligenz in der Gesichtserkennungstechnologie die am weitesten fortgeschrittene ist. Wie ZDNet feststellt, haben Unternehmen wie Microsoft bereits Gesichtserkennungstechnologie entwickelt, die mit Hilfe von Emotionstools Gesichtsausdrücke (FR) erkennen kann. Aber der begrenzende Faktor war bisher, dass diese Tools auf acht sogenannte Kernzustände beschränkt waren – Wut, Verachtung, Angst, Ekel, Glück, Traurigkeit, Überraschung oder Neutralität.
Jetzt tritt der japanische Technologieentwickler Fujitsu mit einer AI-basierten Technologie auf den Plan, die die Gesichtserkennung einen Schritt weiter bringt, um ausgedrückte Emotionen zu verfolgen.
Die bestehende FR-Technologie basiert, wie ZDNet erklärt, auf der “Identifizierung verschiedener Aktionseinheiten (AUs) – das heißt bestimmter Gesichtsmuskeln, die wir bewegen und die mit bestimmten Emotionen verknüpft werden können.” In einem gegebenen Beispiel “kann das AI schlussfolgern, dass die Person, die es analysiert, glücklich ist, wenn sowohl die AU ‘Wangenheber’ als auch die AU ‘Lippenwinkelzieher’ identifiziert werden.
Wie ein Sprecher von Fujitsu erklärte, “das Problem mit der aktuellen Technologie ist, dass das AI auf großen Datensätzen für jede AU trainiert werden muss. Es muss wissen, wie es eine AU aus allen möglichen Winkeln und Positionen erkennen kann. Aber wir haben nicht genug Bilder dafür – daher ist es normalerweise nicht sehr genau.”
Eine große Menge an Daten, die benötigt werden, um das AI zu trainieren, um effektiv Emotionen zu erkennen, ist es sehr schwer für die derzeit verfügbare FR, wirklich zu erkennen, was die untersuchte Person fühlt. Und wenn die Person nicht direkt vor der Kamera sitzt und in sie hineinschaut, wird die Aufgabe sogar noch schwieriger. Viele Experten haben diese Probleme in einigen jüngsten Forschungen bestätigt.
Fujitsu behauptet, eine Lösung gefunden zu haben, um die Qualität der Gesichtserkennungsergebnisse bei der Erkennung von Emotionen zu verbessern. Anstatt eine große Anzahl von Bildern zu verwenden, um das AI zu trainieren, hat das neu erstellte Tool die Aufgabe, “mehr Daten aus einem Bild zu extrahieren.” Das Unternehmen bezeichnet dies als ‘Normalisierungsprozess’, der darin besteht, Bilder “aus einem bestimmten Winkel in Bilder umzuwandeln, die einer Frontalaufnahme ähneln.”
Wie der Sprecher erklärte, “Mit dem gleichen begrenzten Datensatz können wir mehr AUs erkennen, sogar in Bildern, die aus einem schrägen Winkel aufgenommen wurden, und mit mehr AUs können wir komplexe Emotionen identifizieren, die subtiler sind als die derzeit analysierten Kernausdrücke.”
Das Unternehmen behauptet, dass es jetzt “emotionale Veränderungen erkennen kann, die so fein sind wie nervöses Lachen, mit einer Erkennungsrate von 81%, eine Zahl, die durch ‘Standardbewertungsmethoden’ ermittelt wurde.” Im Vergleich dazu hat unabhängige Forschung gezeigt, dass Microsoft-Tools eine Erkennungsrate von 60% haben und auch Probleme bei der Erkennung von Emotionen in Bildern hatten, die aus schrägen Winkeln aufgenommen wurden.
Als mögliche Anwendungen erwähnt Fujitsu, dass seine neuen Tools unter anderem für die Verkehrssicherheit eingesetzt werden könnten, ” indem sie sogar kleine Veränderungen in der Konzentration der Fahrer erkennen.”












