Tekoäly
Uusi tekoälykasvokuvien tunnistusteknologia menee askelen eteenpäin

Näyttää siltä, että tekoälyn käyttö kasvokuvien tunnistusteknologiassa on edennyt enemmän kuin missään muussa alalla tähän asti. Kuten ZDNet huomauttaa, yritykset kuten Microsoft ovat jo kehittäneet kasvokuvien tunnistusteknologian, joka voi tunnistaa kasvojen ilmeet (FR) tunteiden työkalujen avulla. Mutta rajoittava tekijä on ollut se, että nämä työkalut ovat olleet rajoitettu kahdeksaan niin sanottuun perusolotilaan – viha, halveksunta, pelko, inho, onnellisuus, suru, yllätys tai neutraali.
Nyt japanilainen teknologiayritys Fujitsu astuu esiin tekoälypohjaisella teknologialla, joka vie kasvokuvien tunnistuksen askelen eteenpäin tunteiden seuraamisessa.
Olemassa oleva FR-teknologia perustuu, kuten ZDNet selittää, “erilaisten toimintayksiköiden (AUs) tunnistamiseen – eli tiettyihin kasvonlihasten liikkeisiin, jotka voidaan liittää tiettyihin tunteisiin.” Esimerkiksi, “jos sekä AU ‘poskipunnerrin’ että AU ‘huulien veto’ tunnistetaan yhdessä, tekoäly voi päätellä, että analyysin kohteena oleva henkilö on onnellinen.
Fujitsun edustajan mukaan, “nykyisen teknologian ongelma on se, että tekoäly tarvitsee suuria tietoja koulutukseen jokaisen AU:n osalta. Se tarvitsee tietää, miten tunnistaa AU kaikista mahdollisista kulmista ja asennoista. Mutta meillä ei ole tarpeeksi kuvia siihen – joten yleensä se ei ole niin tarkin.”
Suuri määrä dataa tarvitaan tekoälyn koulutukseen, jotta se olisi tehokas tunteiden havaitsemisessa. Ja jos henkilö ei istu kameran edessä ja katso suoraan siihen, tehtävästä tulee vielä haastavampi. Monet asiantuntijat ovat vahvistaneet nämä ongelmat joissakin viimeaikaisissa tutkimuksissa.
Fujitsu väittää, että se on löytänyt ratkaisun parantaa kasvokuvien tunnistustuloksia tunteiden havaitsemisessa. Sen sijaan, että käytettäisiin suuria määriä kuvia tekoälyn koulutukseen, uusi työkalu tehtävä on “erottaa enemmän dataa yhdestä kuvasta.” Yritys kutsuu tätä ‘normalisointiprosessiksi’, joka käsittää kuvien muuttamista “tietyistä kulmista otetuiksi kuviksi, jotka muistuttavat etukuvia.”
Edustajan mukaan, “Saman rajoitetun aineiston kanssa voimme paremmin havaita enemmän AU:ita, jopa kuvissa, jotka on otettu vinosti, ja enemmän AU:ita voidaan tunnistaa monimutkaisia tunteita, jotka ovat häikäisevämpiä kuin nykyisin analysoivat perusilmeet.”
Yritys väittää, että se voi nyt “havaita tunteiden muutoksia yhtä tarkasti kuin hermostuneen naurun, havaintotarkkuusasteella 81%, joka määritettiin ‘standardien arviointimenetelmien’ avulla.” Vertailukelpoisesti, riippumattoman tutkimuksen mukaan, Microsoftin työkalut ovat 60%:n tarkkuudella, ja ne ovat myös kärsineet ongelmista tunteiden havaitsemisessa, kun ne on käytetty kuvissa, jotka on otettu enemmän vinosti.
Mahdollisina sovelluksina Fujitsu mainitsee, että uudet työkalut voivat olla muun muassa käytössä tieliikenneturvallisuudessa “havaitsemalla jopa pieniä muutoksia kuljettajien keskittymisessä.”












