Connect with us

Robotik

Ny Bølgeteknologi Gør Android-Emotioner Mere Naturlige

mm

For dem, der har interageret med en android, der ser utrolig menneskelignende ud, rapporterer mange, at noget “føles forkert.” Dette fænomen går ud over blot udseende – det er dybt rodnet i, hvordan robotter udtrykker emotioner og opretholder konsistente emotionelle tilstande. Eller med andre ord, deres mangel på menneskelignende evner.

mens moderne androids kan mestre individuelle ansigtsudtryk, ligger udfordringen i at skabe naturlige overgange og opretholde emotionel konsistens. Traditionelle systemer afhænger stærkt af forudindrettede udtryk, ligesom at bladre gennem sider i en bog i stedet for at flyde naturligt fra den ene emotion til den næste. Denne stive tilgang skaber ofte en afbrydelse mellem, hvad vi ser, og hvad vi opfatter som ægte emotionel udtryk.

Begrænsningerne bliver særligt tydelige under forlængede interaktioner. En android kan smile perfekt i ét øjeblik, men kæmpe for at naturligt gå over til det næste udtryk, hvilket skaber en chokerende oplevelse, der minder os om, at vi interagerer med en maskine i stedet for et væsen med ægte emotioner.

En Bølgebaseret Løsning

Det er her, nogen ny og vigtig forskning fra Osaka University kommer ind. Forskere har udviklet en innovativ tilgang, der grundlæggende genopfinder, hvordan androids udtrykker emotioner. I stedet for at behandle ansigtsudtryk som isolerede handlinger, ser denne nye teknologi dem som sammenhængende bølger af bevægelse, der flyder naturligt over en androids ansigt.

Ligesom multiple instrumenter blander sig for at skabe en symfoni, kombinerer dette system forskellige ansigtsbevægelser – fra subtile åndedrætsmønstre til øjneblink – til en harmonisk helhed. Hver bevægelse repræsenteres som en bølge, der kan moduleres og kombineres med andre i realtid.

Det, der gør denne tilgang innovativ, er dens dynamiske natur. I stedet for at afhænge af forudindrettede sekvenser, genererer systemet udtryk organisk ved at lagre disse forskellige bølger af bevægelse. Dette skaber en mere flydende og naturlig udseende, der eliminerer de robotiske overgange, der ofte bryder illusionen af naturlig emotionel udtryk.

Den tekniske innovation ligger i, hvad forskerne kalder “bølgeformmodulation.” Dette tillader androidens interne tilstand at direkte påvirke, hvordan disse bølger af udtryk manifestere sig, hvilket skaber en mere ægte forbindelse mellem robotterens programmerede emotionelle tilstand og dens fysiske udtryk.

Billede kreditering: Hisashi Ishihara

Realtids Emotionel Intelligens

Forestil dig at forsøge at få en robot til at udtrykke, at den bliver søvnig. Det handler ikke kun om at lade øjenlågene synke – det handler også om at koordinere multiple subtile bevægelser, som mennesker ubevidst genkender som tegn på søvnighed. Dette nye system tackler denne komplekse udfordring gennem en genial tilgang til bevægelseskoordination.

Dynamiske Udtryksmuligheder

Teknologien orkestrerer ni grundlæggende typer af koordinerede bevægelser, som vi typisk associerer med forskellige arousal-tilstande: åndedræt, spontant blinken, øjenbevægelser, nikning, hovedrysten, sugende refleks, pendulær nystagmus (rytmiske øjenbevægelser), hovedside-svingning og gabning.

Hver af disse bevægelser styres af, hvad forskerne kalder en “aftagende bølge” – en matematisk mønster, der bestemmer, hvordan bevægelsen udspiller sig over tid. Disse bølger er ikke tilfældige; de er omhyggeligt indstillet ved hjælp af fem nøgleparametre:

  • Amplitude: kontrollerer, hvor udpræget bevægelsen er
  • Dæmpningsforhold: påvirker, hvor hurtigt bevægelsen stabiliserer sig
  • Bølgelængde: bestemmer bevægelsens timing
  • Svingningscenter: sætter bevægelsens neutrale position
  • Reaktiveringsperiode: kontrollerer, hvor ofte bevægelsen gentages

Intern Tilstandsrefleksion

Det, der gør dette system fremtrædende, er, hvordan det kobler disse bevægelser til robotternes interne arousal-tilstand. Når systemet indikerer en høj arousal-tilstand (begejstring), justerer visse bølgeparametre automatisk – f.eks. bliver åndedrætsbevægelser mere hyppige og udprægede. I en lav arousal-tilstand (søvnighed) kan man se langsommere, mere udprægede gabbebevægelser og lejlighedsvis hovednikning.

Systemet opnår dette gennem, hvad forskerne kalder “temporal styring” og “postural styring” moduler. Den temporale modul kontrollerer, hvornår bevægelser sker, mens den posturale modul sikrer, at alle ansigtskomponenter arbejder sammen naturligt.

Hisashi Ishihara er hovedforfatter på denne forskning og en adjungeret professor ved Department of Mechanical Engineering, Graduate School of Engineering, Osaka University.

“I stedet for at skabe overfladiske bevægelser,” forklarer Ishihara, “kan yderligere udvikling af et system, hvor interne emotioner reflekteres i alle detaljer af en androids handlinger, føre til skabelsen af androids, der opfattes som havende et hjerte.”

Søvnig humørudtryk på en barn-android robot (Billede kreditering: Hisashi Ishihara)

Forbedring af Overgange

I modsætning til traditionelle systemer, der skifter mellem forudindrettede udtryk, skaber denne tilgang glatte overgange ved kontinuerligt at justere disse bølgeparametre. Bevægelserne koordineres gennem et sofistikeret netværk, der sikrer, at ansigtsaktioner arbejder sammen naturligt – ligesom, hvordan et menneskes ansigtsbevægelser er ubevidst koordineret.

Forskningsholdet demonstrerede dette gennem eksperimentelle betingelser, der viste, hvordan systemet kunne effektivt formidle forskellige arousal-niveauer, mens de opretholdt naturligt udseende udtryk.

Fremtidige Konsekvenser

Udviklingen af dette bølgebaserede emotionelle udtrykssystem åbner op for fascinerende muligheder for menneske-robot-interaktion og kunne kombineres med teknologi som Embodied AI i fremtiden. Mens nuværende androids ofte skaber en følelse af ubehag under forlængede interaktioner, kunne denne teknologi hjælpe med at brokke den ukomfortable dal – det ubehagelige rum, hvor robotter ser næsten, men ikke helt, menneskelige ud.

Den væsentlige gennembrud ligger i skabelsen af ægtefølelse emotionel tilstedeværelse. Ved at generere flydende, kontekstpassende udtryk, der matcher interne tilstande, kunne androids blive mere effektive i roller, der kræver emotionel intelligens og menneskelig forbindelse.

Koichi Osuka fungerede som seniorforfatter og er en professor ved Department of Mechanical Engineering på Osaka University.

Som Osuka forklarer, kunne denne teknologi “meget berige emotionel kommunikation mellem mennesker og robotter.” Forestil dig sundhedsbesøgende, der kan udtrykke passende bekymring, uddannelsesrobotter, der viser begejstring, eller service-robotter, der udtrykker ægte-seende opmærksomhed.

Forskningen demonstrerer særligt lovende resultater i udtryk af forskellige arousal-niveauer – fra højenergi-begejstring til lavenergi-søvnighed. Denne evne kunne være afgørende i scenarier, hvor robotter behøver at:

  • Formidle alertniveauer under langvarige interaktioner
  • Udtrykke passende energiniveauer i terapeutiske sammenhænge
  • Matche deres emotionelle tilstand til den sociale kontekst
  • Opretholde emotionel konsistens under forlængede samtaler

Systemets evne til at generere naturlige overgange mellem tilstande gør det særligt værdifuldt for anvendelser, der kræver vedvarende menneske-robot-interaktion.

Ved at behandle emotionel udtryk som en flydende, bølgebaseret fænomen i stedet for en række forudindrettede tilstande, åbner teknologien mange nye muligheder for at skabe robotter, der kan engagere sig med mennesker på emotionelt meningsfulde måder. Forskningsholdets næste skridt vil fokusere på at udvide systemets emotionelle rækkevidde og yderligere forfine dets evne til at udtrykke subtile emotionelle tilstande, hvilket vil påvirke, hvordan vi vil tænke om og interagere med androids i vores daglige liv.

Alex McFarland er en AI-journalist og forfatter, der udforsker de seneste udviklinger inden for kunstig intelligens. Han har samarbejdet med talrige AI-startups og publikationer verden over.