Sztuczna inteligencja
Nowa technologia rozpoznawania twarzy z wykorzystaniem sztucznej inteligencji idzie o krok dalej

Wygląda na to, że zastosowanie sztucznej inteligencji w technologiach rozpoznawania twarzy to obszar, który rozwinął się najbardziej do tej pory. Jak zauważa ZDNet , firmy takie jak Microsoft już opracowały technologie rozpoznawania twarzy, które mogą rozpoznać wyrażenia twarzy (FR) z wykorzystaniem narzędzi emocjonalnych. Ale ograniczającym czynnikiem do tej pory było to, że te narzędzia były ograniczone do ośmiu, tak zwanych stanów podstawowych – złości, lekceważenia, strachu, obrzydzenia, szczęścia, smutku, zaskoczenia lub neutralności.
Teraz do gry wkracza japoński deweloper technologiczny Fujitsu, z technologią opartą na sztucznej inteligencji, która prowadzi rozpoznawanie twarzy o krok dalej w śledzeniu wyrażanych emocji.
Istniejąca technologia FR oparta jest, jak wyjaśnia ZDNet, na „identyfikowaniu różnych jednostek akcji (AUs) – czyli pewnych ruchów mięśni twarzy, które możemy powiązać z określonymi emocjami.” W danym przykładzie, „jeśli zarówno AU ‘uniesienie policzka’, jak i AU ‘pociągnięcie kącika ust’ są identyfikowane razem, sztuczna inteligencja może wnioskować, że osoba, którą analizuje, jest szczęśliwa.
Jak wyjaśnił przedstawiciel Fujitsu, „problem z obecną technologią polega na tym, że sztuczna inteligencja musi być szkolona na ogromnych zbiorach danych dla każdej AU. Musi wiedzieć, jak rozpoznać AU z wszystkich możliwych kątów i pozycji. Ale nie mamy wystarczającej liczby zdjęć do tego – więc zwykle nie jest to zbyt dokładne”.
Duża ilość danych potrzebna do szkolenia sztucznej inteligencji, aby była skuteczna w wykrywaniu emocji, jest bardzo trudna dla obecnie dostępnych FR, aby naprawdę rozpoznać, co osoba badana czuje. A jeśli osoba nie siedzi przed kamerą i nie patrzy prosto w nią, zadanie staje się jeszcze trudniejsze. Wiele ekspertów potwierdziło te problemy w niektórych niedawnych badaniach.
Fujitsu twierdzi, że znalazło rozwiązanie, aby zwiększyć jakość wyników rozpoznawania twarzy w wykrywaniu emocji. Zamiast korzystać z dużej liczby zdjęć do szkolenia sztucznej inteligencji, ich nowo stworzone narzędzie ma za zadanie „wyodrębnić więcej danych z jednego zdjęcia.” Firma nazywa to ‘procesem normalizacji’, który polega na konwertowaniu zdjęć „zrobionych z określonego kąta w obrazy, które przypominają zdjęcie z przodu”.
Jak wyjaśnił przedstawiciel Fujitsu, „z tym samym ograniczonym zbiorem danych możemy lepiej wykryć więcej AU, nawet na zdjęciach zrobionych z kąta, i z więcej AU możemy identyfikować złożone emocje, które są bardziej subtelne niż obecnie analizowane wyrażenia podstawowe”.
Firma twierdzi, że teraz może „wykryć zmiany emocjonalne tak wyrafinowane, jak nerwowe śmiech, z dokładnością 81%, liczbą, która została określona za pomocą ‘standardowych metod oceny’.” W porównaniu, zgodnie z niezależnymi badaniami, narzędzia Microsoft mają dokładność 60%, i również miały problemy z wykrywaniem emocji, gdy pracowały ze zdjęciami zrobionymi z bardziej skośnych kątów.
Jako potencjalne zastosowania, Fujitsu wymienia, że ich nowe narzędzie mogłoby być, między innymi, wykorzystane do poprawy bezpieczeństwa na drogach „poprzez wykrywanie nawet niewielkich zmian w koncentracji kierowców”.












