Connect with us

Robotyka

Nowa fala technologii sprawia, że emocje androidów stają się bardziej naturalne

mm

Dla tych, którzy wchodzili w interakcje z androidem, który wygląda niezwykle ludzko, wielu zgłasza, że coś “nie jest tak”. To zjawisko wykracza poza zwykły wygląd – jest głęboko zakorzenione w tym, jak roboty wyrażają emocje i utrzymują spójne stany emocjonalne. Innymi słowy, brak ludzkich zdolności.

Podczas gdy nowoczesne androidy mogą mistrzowsko odtwarzać poszczególne wyrażenia twarzy, wyzwanie polega na tworzeniu naturalnych przejść i utrzymaniu spójności emocjonalnej. Tradycyjne systemy opierają się głównie na zaprogramowanych wyrażeniach, podobnie jak przewracanie stron w książce, zamiast płynnego przejścia z jednej emocji do następnej. Ten sztywny podejście często tworzy rozdźwięk między tym, co widzimy, a tym, co postrzegamy jako autentyczne wyrażenie emocjonalne.

Ograniczenia stają się szczególnie widoczne podczas przedłużonych interakcji. Android może doskonale uśmiechać się w jednej chwili, ale miałby trudności z naturalnym przejściem do następnego wyrażenia, tworząc szokujące doświadczenie, które przypomina nam, że interakcja odbywa się z maszyną, a nie z istotą o autentycznych emocjach.

Rozwiązanie oparte na fali

To właśnie tutaj pojawia się nowe i ważne badanie z Uniwersytetu w Osace. Naukowcy opracowali innowacyjne podejście, które fundamentalnie zmienia sposób, w jaki androidy wyrażają emocje. Zamiast traktowania wyrażeń twarzy jako izolowanych działań, ta nowa technologia postrzega je jako połączone fale ruchu, które płynnie przepływają po twarzy androida.

Podobnie jak wiele instrumentów łączy się, tworząc symfonię, ten system łączy różne ruchy twarzy – od subtelnych wzorców oddechu do mrugania oczami – w harmonijną całość. Każdy ruch jest reprezentowany jako fala, która może być modyfikowana i łączona z innymi w czasie rzeczywistym.

To, co sprawia, że to podejście jest innowacyjne, to jego dynamiczny charakter. Zamiast polegać na nagranych sekwencjach, system generuje wyrażenia organicznie, nakładając te różne fale ruchu. To tworzy bardziej płynne i naturalne wygląd, eliminując sztywne przejścia, które często łamią iluzję naturalnego wyrażenia emocjonalnego.

Innowacja techniczna leży w tym, co naukowcy nazywają “modyfikacją fal”. To pozwala na to, by wewnętrzny stan androida bezpośrednio wpływał na to, jak te fale wyrażenia manifestują się, tworząc bardziej autentyczne połączenie między zaprogramowanym stanem emocjonalnym a fizycznym wyrażeniem.

Zdjęcie: Hisashi Ishihara

Inteligencja emocjonalna w czasie rzeczywistym

Wyobraź sobie, że próbujesz sprawić, by robot wyraził, że jest senny. To nie tylko kwestia opadania powiek – to również koordynowanie wielu subtelnych ruchów, które ludzie nieświadomie rozpoznają jako oznaki senności. Ten nowy system rozwiązuje to złożone wyzwanie poprzez genialne podejście do koordynacji ruchu.

Dynamiczne możliwości wyrażania

Technologia aranżuje dziewięć podstawowych typów skoordynowanych ruchów, które zwykle kojarzymy z różnymi stanami pobudzenia: oddychanie, spontaniczne mruganie, ruchy oczami, kiwanie głową, potrząsanie głową, odbicie, pendularny nystagmus (rytmiczne ruchy oczami), kołysanie głową i ziewanie.

Każdy z tych ruchów jest kontrolowany przez to, co naukowcy nazywają “falą wygasającą” – wzorcem matematycznym, który określa, jak ruch rozgrywa się w czasie. Te fale nie są losowe; są starannie dostrojone przy użyciu pięciu kluczowych parametrów:

  • Amplituda: kontroluje, jak wyraźny jest ruch
  • Współczynnik tłumienia: wpływa na to, jak szybko ruch się ustabilizuje
  • Długość fali: określa czas trwania ruchu
  • Środek drgań: ustawia neutralną pozycję ruchu
  • Czas ponownej aktywacji: kontroluje, jak często ruch się powtarza

Odbicie stanu wewnętrznego

To, co wyróżnia ten system, to sposób, w jaki łączy te ruchy ze stanem wewnętrznym androida. Gdy system wskazuje stan wysokiego pobudzenia (podniecenie), pewne parametry fal automatycznie dostosowują się – na przykład ruchy oddechowe stają się częstsze i bardziej wyraźne. W stanie niskiego pobudzenia (senność) można zobaczyć wolniejsze, bardziej wyraźne ziewanie i okazjonalne kiwanie głową.

System osiąga to poprzez to, co naukowcy nazywają “zarządzaniem czasem” i “zarządzaniem postawą”. Moduł czasowy kontroluje, kiedy występują ruchy, podczas gdy moduł postawy zapewnia, że wszystkie składniki twarzy pracują razem naturalnie.

Hisashi Ishihara jest głównym autorem tego badania i adiunktem na Wydziale Inżynierii Mechanicznej, Szkoły Inżynierskiej, Uniwersytetu w Osace.

“Zamiast tworzyć powierzchowne ruchy”, wyjaśnia Ishihara, “dalszy rozwój systemu, w którym wewnętrzne emocje są odzwierciedlone w każdym szczególe działań androida, mógłby prowadzić do stworzenia androidów postrzeganych jako mających serce”.

Wyrażenie nastroju senności na androidzie w postaci dziecka (Zdjęcie: Hisashi Ishihara)

Poprawa przejść

W przeciwieństwie do tradycyjnych systemów, które przełączają się między zaprogramowanymi wyrażeniami, to podejście tworzy gładkie przejścia, ciągle dostosowując te parametry fal. Ruchy są skoordynowane poprzez zaawansowaną sieć, która zapewnia, że działania twarzy pracują razem naturalnie – podobnie jak ludzkie ruchy twarzy są nieświadomie skoordynowane.

Zespół badawczy zademonstrował to poprzez warunki eksperymentalne, pokazując, jak system może skutecznie przekazywać różne poziomy pobudzenia, utrzymując przy tym naturalne wyrażenia.

Przyszłe implikacje

Rozwój tego systemu wyrażania emocjonalnego opartego na fali otwiera fascynujące możliwości dla interakcji człowiek-robot i mógłby być połączony z technologiami takimi jak Embodied AI w przyszłości. Podczas gdy obecne androidy często tworzą poczucie niepokoju podczas przedłużonych interakcji, ta technologia mogłaby pomóc przekroczyć dolinę niepokoju – to niekomfortowe miejsce, gdzie roboty wyglądają prawie, ale nie całkiem jak ludzie.

Kluczowy przełom polega na tworzeniu autentycznej obecności emocjonalnej. Poprzez generowanie płynnych, odpowiednich do kontekstu wyrażeń, które odpowiadają stanom wewnętrznym, androidy mogłyby stać się bardziej skuteczne w rolach wymagających inteligencji emocjonalnej i połączenia z ludźmi.

Koichi Osuka pełnił funkcję starszego autora i jest profesorem na Wydziale Inżynierii Mechanicznej Uniwersytetu w Osace.

Jak wyjaśla Osuka, ta technologia “mogłaby znacznie wzbogacić komunikację emocjonalną między ludźmi i robotami”. Wyobraź sobie opiekunów zdrowia, którzy mogą wyrazić odpowiednią troskę, roboty edukacyjne, które pokazują entuzjazm, lub roboty usługowe, które wyrażają prawdziwie wyglądającą uwagę.

Badanie pokazuje szczególnie obiecujące wyniki w wyrażaniu różnych poziomów pobudzenia – od wysokiej energii podniecenia do niskiej energii senności. Ta zdolność mogłaby być kluczowa w sytuacjach, w których roboty muszą:

  • Przekazywać poziomy czujności podczas długotrwałych interakcji
  • Wyrażać odpowiednie poziomy energii w środowiskach terapeutycznych
  • Dopasowywać swój stan emocjonalny do kontekstu społecznego
  • Utrzymywać spójność emocjonalną podczas przedłużonych rozmów

Zdolność systemu do generowania naturalnych przejść między stanami sprawia, że jest szczególnie cenny w aplikacjach wymagających utrzymania interakcji człowiek-robot.

Traktując wyrażanie emocjonalne jako zjawisko oparte na fali, a nie jako serię zaprogramowanych stanów, technologia otwiera wiele nowych możliwości tworzenia robotów, które mogą angażować się w emocjonalnie znaczące sposoby z ludźmi. Następne kroki zespołu badawczego będą koncentrowały się na rozszerzeniu zakresu emocjonalnego systemu i dalszym udoskonaleniu jego zdolności do przekazywania subtelnych stanów emocjonalnych, wpływając na to, jak będziemy myśleć i wchodzić w interakcje z androidami w naszym codziennym życiu.

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją, który bada najnowsze rozwoje w dziedzinie sztucznej inteligencji. Współpracował z licznymi startupami i wydawnictwami związanymi z sztuczną inteligencją na całym świecie.