Connect with us

Robotikk

Ny bølgeteknologi gjør Android-emojier mer naturlige

mm

For de som har interagert med en android som ser usedvanlig menneskelig ut, rapporterer mange at noe “føles feil”. Dette fenomenet går langt utenfor bare utseende – det er dypt rotfestet i hvordan roboter uttrykker emojier og opprettholder konsistente emosjonelle tilstander. Eller med andre ord, deres manglende menneskelignende evner.

Mens moderne androider kan mestre individuelle ansiktsuttrykk, ligger utfordringen i å skape naturlige overganger og opprettholde emosjonell konsistens. Tradisjonelle systemer er avhengige av forhåndsprogrammerte uttrykk, lignende å bladre gjennom sider i en bok heller enn å flyte naturlig fra en emosjon til den neste. Denne stive tilnærmingen skaper ofte en disconnect mellom hva vi ser og hva vi oppfatter som ekte emosjonell uttrykk.

Begrensningene blir særlig tydelige under utvidede interaksjoner. En android kan smile perfekt i ett øyeblikk, men slite med å gå naturlig over til neste uttrykk, og skape en sjokkerende opplevelse som minner oss på at vi interagerer med en maskin heller enn et vesen med ekte emojier.

En bølgebasert løsning

Dette er der noen nye og viktige forskninger fra Osaka Universitet kommer inn. Forskerne har utviklet en innovativ tilnærming som fundamentalt omdanner hvordan androider uttrykker emojier. I stedet for å behandle ansiktsuttrykk som isolerte handlinger, ser denne nye teknologien på dem som sammenhengende bølger av bevegelser som flyter naturlig over en androids ansikt.

Liksom flere instrumenter blander seg for å skape en symfoni, kombinerer dette systemet ulike ansiktsbevegelser – fra sublime åndedrettmønster til øyeblikk – i en harmonisk helhet. Hver bevegelse representeres som en bølge som kan moduleres og kombineres med andre i sanntid.

Hva gjør denne tilnærmingen innovativ er dens dynamiske natur. I stedet for å avhenge av forhåndsinnspilte sekvenser, genererer systemet uttrykk organisk ved å legge disse ulike bølgene av bevegelse over hverandre. Dette skaper en mer flytende og naturlig utseende, og eliminerer de robotiske overgangene som ofte bryter illusjonen av naturlig emosjonell uttrykk.

Den tekniske innovasjonen ligger i hva forskerne kaller “bølgeformmodulering”. Dette tillater androidens interne tilstand å direkte påvirke hvordan disse bølgene av uttrykk manifestere seg, og skaper en mer ekte forbindelse mellom robotens programmerede emosjonelle tilstand og dens fysiske uttrykk.

Bildekreditt: Hisashi Ishihara

Sanntids emosjonell intelligens

Forestall deg å forsøke å få en robot til å uttrykke at den blir søvnig. Det er ikke bare om å senke øyelokkene – det er også om å koordinere flere sublime bevegelser som mennesker ubevisst gjenkjenner som tegn på søvnighet. Dette nye systemet takler denne komplekse utfordringen gjennom en genial tilnærming til bevegelseskoordinering.

Dynamiske uttrykksmuligheter

Teknologien orkestrerer ni grunnleggende typer koordinerte bevegelser som vi vanligvis assosierer med ulike oppvåkningstilstander: åndedrett, spontant blink, skiftende øyebegivelser, nikking, hode-rysting, sug-refleks, pendulerende nystagmus (rytmiske øyebegivelser), hode-side-svingning og gape.

Hver av disse bevegelsene kontrolleres av hva forskerne kaller en “avtakende bølge” – et matematisk mønster som bestemmer hvordan bevegelsen utspiller seg over tid. Disse bølgene er ikke tilfeldige; de er nøye justert ved hjelp av fem nøkkelparametere:

  • Amplitude: kontrollerer hvor uttalt bevegelsen er
  • Dempingsforhold: påvirker hvor raskt bevegelsen stabiliseres
  • Bølgelengde: bestemmer bevegelsens timing
  • Svingningsenter: setter bevegelsens nøytrale posisjon
  • Reaktiveringsperiode: kontrollerer hvor ofte bevegelsen gjentas

Interne tilstandsrefleks

Hva gjør dette systemet spesielt er hvordan det kobler disse bevegelsene til robotens interne oppvåkningstilstand. Når systemet indikerer en høy oppvåkningstilstand (oppstemthet), justeres visse bølgeparametere automatisk – for eksempel blir åndedrettsbevegelser mer hyppige og uttalte. I en lav oppvåkningstilstand (søvnighet) kan du se langsommere, mer uttalte gape-bevegelser og occasionelle hode-nikking.

Systemet oppnår dette gjennom hva forskerne kaller “tidsstyring” og “postur-styring” moduler. Tidsmodulen kontrollerer når bevegelsene skjer, mens posturmodulen sikrer at alle ansiktskomponentene fungerer naturlig sammen.

Hisashi Ishihara er hovedforfatteren av denne forskningen og en assosiert professor ved avdelingen for maskinteknikk, Graduate School of Engineering, Osaka Universitet.

“I stedet for å skape overflatiske bevegelser,” forklarer Ishihara, “kan videreutvikling av et system hvor interne emojier reflekteres i hver detalj av en androids handlinger kunne føre til skapelsen av androider som oppfattes som å ha et hjerte.”

Søvnig humør-uttrykk på en barn-android robot (Bildekreditt: Hisashi Ishihara)

Forbedring i overganger

I motsetning til tradisjonelle systemer som skifter mellom forhåndsinnspilte uttrykk, skaper denne tilnærmingen glatte overganger ved å kontinuerlig justere disse bølgeparametrene. Bevegelsene koordineres gjennom et sofistikert nettverk som sikrer at ansiktsbevegelsene fungerer naturlig sammen – lignende hvordan et menneskes ansiktsbevegelser er ubevisst koordinert.

Forskningsgruppen demonstrerte dette gjennom eksperimentelle forhold som viste hvordan systemet kunne effektivt formidle ulike oppvåkningstilstander mens de opprettholdt naturlig-utseende uttrykk.

Fremtidige implikasjoner

Utviklingen av dette bølgebaserte emosjonelle uttrykksystemet åpner opp fascinerende muligheter for menneske-robot interaksjon, og kunne kombineres med teknologi som Embodied AI i fremtiden. Mens nåværende androider ofte skaper en følelse av uro under utvidede interaksjoner, kunne denne teknologien hjelpe med å brolegge den uhyggelige dalen – det ubehagelige rommet hvor roboter ser nesten, men ikke helt, menneskelige ut.

Den nøkkel-begrepet er å skape ekte-følende emosjonell nærvær. Ved å generere flytende, kontekst-egnet uttrykk som matcher interne tilstander, kunne androider bli mer effektive i roller som krever emosjonell intelligens og menneskelig tilknytning.

Koichi Osuka fungerte som seniorforfatter og er en professor ved avdelingen for maskinteknikk ved Osaka Universitet.

Som Osuka forklarer, kunne denne teknologien “gjøre stor innvirkning på emosjonell kommunikasjon mellom mennesker og roboter.” Forestall deg helsekompisarer som kan uttrykke passende bekymring, utdanningsroboter som viser entusiasme, eller servicereboter som konveyrer ekte-seende oppmerksomhet.

Forskningen demonstrerer særlig lovende resultater i å uttrykke ulike oppvåkningstilstander – fra høy-energi oppstemthet til lav-energi søvnighet. Denne evnen kunne være avgjørende i scenarier hvor roboter trenger å:

  • Formidle oppvåkningstilstander under langvarige interaksjoner
  • Uttrykke passende energinivåer i terapeutiske settinger
  • Matche deres emosjonelle tilstand til den sosiale konteksten
  • Opprettholde emosjonell konsistens under utvidede samtaler

Systemets evne til å generere naturlige overganger mellom tilstander gjør det spesielt verdifullt for applikasjoner som krever varig menneske-robot interaksjon.

Ved å behandle emosjonell uttrykk som en flytende, bølgebasert fenomen heller enn en serie forhåndsprogrammerte tilstander, åpner teknologien opp mange nye muligheter for å skape roboter som kan engasjere med mennesker på emosjonelt meningsfulle måter. Forskningsgruppens neste skritt vil fokusere på å utvide systemets emosjonelle rekkevidde og videre finjustere dens evne til å formidle sublime emosjonelle tilstander, og påvirke hvordan vi vil tenke på og interagere med androider i våre daglige liv.

Alex McFarland er en AI-journalist og forfatter som utforsker de nyeste utviklingene innen kunstig intelligens. Han har samarbeidet med tallrike AI-startups og publikasjoner verden over.