Kunstig intelligens
Forskere kommer tættere på at opnå “følelsesmæssigt intelligente” AI

Forskere ved Japan Advanced Institute of Science and Technology har integreret biologiske signaler med maskinlæringsmetoder for at enable “følelsesmæssigt intelligente” AI. Følelsesmæssig intelligens kan føre til mere naturlige menneske-maskine-interaktioner, siger forskerne.
Den nye studie blev offentliggjort i tidsskriftet IEEE Transactions on Affective Computing.
At opnå følelsesmæssig intelligens
Tale- og sproggenkendelsesteknologier som Alexa og Siri udvikler sig konstant, og tilføjelsen af følelsesmæssig intelligens kunne tage dem til næste niveau. Dette ville betyde, at disse systemer kunne genkende brugerens følelsesmæssige tilstand, samt forstå sprog og generere mere medfølende svar.
“Multimodal sentimentanalyse” er en gruppe metoder, der udgør guldstandarden for AI-dialogsystemer med sentimentdetektion, og de kan automatisk analysere en persons psykologiske tilstand fra deres tale, ansigtsudtryk, stemmefarve og kropsholdning. De er fundamentale for at skabe menneskecentrerede AI-systemer og kunne føre til udviklingen af en følelsesmæssigt intelligent AI med “beyond-human capabilities”. Disse evner ville hjælpe AI med at forstå brugerens sentiment, før de danner et passende svar.
At analysere uobserverbare signaler
Nuvaerende estimationsmetoder fokuserer mest på observerbar information, hvilket udelader information i uobserverbare signaler, som kan omfatte fysiologiske signaler. Disse typer signaler indeholder en masse værdifuld data, der kunne forbedre sentimentestimation.
I studiet blev fysiologiske signaler tilføjet til multimodal sentimentanalyse for første gang. Forskerholdet, der gennemførte denne studie, inkluderede Associate Professor Shogo Okada fra Japan Advanced Institute of Science and Technology (JSAIT), og Prof. Kazunori Komatani fra Institute of Scientific and Industrial Research ved Osaka University.
“Mennesker er meget gode til at skjule deres følelser,” siger Dr. Okada. “Den indre følelsesmæssige tilstand hos en bruger bliver ikke altid nøjagtigt reflekteret af dialogens indhold, men da det er svært for en person at bevidst kontrollere deres biologiske signaler, såsom hjertefrekvens, kan det være nyttigt at bruge disse til at estimere deres følelsesmæssige tilstand. Dette kunne gøre en AI med sentimentestimationsevner, der er beyond-human.”
Holdets studie omfattede analysen af 2.468 udvekslinger med en dialog-AI, der blev erhvervet fra 26 deltagere. Med denne data kunne holdet estimere niveauet for nydelse, som brugeren oplevede under samtalen.
Brugeren blev derefter bedt om at vurderer, hvor underholdende eller kedelig samtalen var. Den multimodale dialogdatasaet kaldet “Hazumi1911” blev brugt af holdet. Denne datasaet kombinerer talegenkendelse, stemmefarvesensorer, kropsholdningsdetektion og ansigtsudtryk med hudpotential, som er en form for fysiologisk responsforsking.
“Ved at sammenligne alle de separate informationskilder, viste de biologiske signalsinformationer sig at være mere effektive end stemme og ansigtsudtryk,” fortsætter Dr. Okada. “Når vi kombinerer sproginformationen med biologisk signalsinformation for at estimere den selv-vurderede indre tilstand, mens man taler med systemet, blev AI’s præstationer sammenlignelige med dem hos et menneske.”
De nye fund tyder på, at detektionen af fysiologiske signaler hos mennesker kunne føre til højst følelsesmæssigt intelligente AI-baserede dialogsysterner. Følelsesmæssigt intelligente AI-systemer kunne derefter bruges til at identificere og overvåge psykiske lidelser ved at registrere ændringer i daglige følelsesmæssige tilstande. En anden mulig anvendelse er i uddannelsessammenhæng, hvor de kunne identificere, om en lærende er interesseret i et emne eller keder sig, hvilket kunne bruges til at ændre undervisningsstrategier.












