Connect with us

Vědci se přiblížili k dosažení „emocionálně inteligentního“ AI

Umělá inteligence

Vědci se přiblížili k dosažení „emocionálně inteligentního“ AI

mm

Vědci z Japonského pokročilého institutu vědy a technologie integrovali biologické signály s metodami strojového učení, aby umožnili „emocionálně inteligentnímu“ AI. Emocionální inteligence by mohla vést k více přirozeným interakcím mezi lidmi a stroji, uvádějí vědci. 

Nová studie byla publikována v časopise IEEE Transactions on Affective Computing.

Dosažení emocionální inteligence

Technologie rozpoznávání řeči a jazyka, jako je Alexa a Siri, se neustále vyvíjí, a přidání emocionální inteligence by je mohlo dostat na další úroveň. To by znamenalo, že tyto systémy by mohly rozpoznat emocionální stavy uživatele, stejně jako porozumět jazyku a generovat více empatické odpovědi. 

„Multimodální sentimentální analýza“ je skupina metod, která tvoří zlatý standard pro AI dialogové systémy se sentimentální detekcí, a může automaticky analyzovat psychologický stav člověka z jeho řeči, obličeje, barvy hlasu a postoje. Jsou základem pro vytváření lidsky orientovaných AI systémů a mohly by vést k vývoji emocionálně inteligentního AI s „nadlidskými schopnostmi“. Tyto schopnosti by pomohly AI pochopit sentiment uživatele předtím, než vytvořil vhodnou odpověď. 

Analýza neozorovatelných signálů

Současné metody odhadu se zaměřují většinou na pozorovatelné informace, které vynechávají informace v neozorovatelných signálech, které mohou zahrnovat fyziologické signály. Tyto typy signálů obsahují mnoho cenných dat, která by mohla zlepšit sentimentální odhad. 

V této studii byly fyziologické signály přidány k multimodální sentimentální analýze poprvé. Tým výzkumníků, kteří provedli tuto studii, zahrnoval docenta Shogo Okadu z Japonského pokročilého institutu vědy a technologie (JSAIT) a profesora Kazunoriho Komataniiho z Institutu vědeckého a průmyslového výzkumu na Osačské univerzitě. 

„Lidé jsou velmi dobří v skrývání svých pocitů,“ říká Dr. Okada. „Vnitřní emocionální stav uživatele není vždy přesně odrážen obsahem dialogu, ale protože je pro člověka obtížné vědomě ovládat své biologické signály, jako je srdeční frekvence, může být užitečné použít tyto signály pro odhad jejich emocionálního stavu. To by mohlo vést k AI s sentimentálními odhadními schopnostmi, které jsou nad lidské.“ 

Studie týmu zahrnovala analýzu 2 468 výměn s dialogovým AI, získaných od 26 účastníků. S těmito daty mohl tým odhadnout úroveň potěšení, které uživatel zažil během konverzace. 

Uživatel byl poté požádán, aby ohodnotil, jak příjemná nebo nudná byla konverzace. Multimodální dialogový datový soubor nazvaný „Hazumi1911“ byl použit týmem. Tento datový soubor kombinuje rozpoznávání řeči, barvu hlasu, detekci postoje a obličejové výrazy se skin potenciálem, což je forma fyziologické odezvy. 

„Při srovnání všech samostatných zdrojů informací se ukázalo, že biologické signály jsou účinnější než hlas a obličejový výraz,“ pokračoval Dr. Okada. „Když jsme kombinovali jazykové informace s biologickými signály pro odhad sebeohodnoceného vnitřního stavu při konverzaci se systémem, výkon AI se stal srovnatelným s lidským.“ 

Nová zjištění naznačují, že detekce fyziologických signálů u lidí by mohla vést k vysoce emocionálně inteligentním AI-založeným dialogovým systémům. Emocionálně inteligentní AI systémy by mohly být použity k identifikaci a monitorování duševních onemocnění tím, že budou vnímat změny v denních emocionálních stavech. Další možný případ použití je ve vzdělávání, kde by mohly identifikovat, zda je student zaujatý tématem nebo nudí, což by mohlo být použito ke změně výukových strategií. 

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s mnoha AI startupy a publikacemi po celém světě.