stub Naukowcy tworzą autonomicznego robota naśladującego ludzkie miny – Unite.AI
Kontakt z nami

Robotyka

Naukowcy tworzą autonomicznego robota, który naśladuje ludzkie miny

Zaktualizowano on
Zdjęcie: Laboratorium Maszyn Kreatywnych

Naukowcy z laboratorium Creative Machines w Columbia Engineering opracowali nowego autonomicznego robota o nazwie EVA, którego miękka i wyrazista twarz pasuje do wyrazu twarzy znajdujących się w pobliżu ludzi. 

Nowa Badania naukowe zostanie zaprezentowany 30 maja na konferencji ICRA. Schematy robota są dostępne na zasadach open source w Hardware-X.

Hod Lipson jest profesorem innowacji Jamesa i Sally Scapa (inżynieria mechaniczna) i dyrektorem laboratorium Creative Machines Lab.

„Pomysł na EVA narodził się kilka lat temu, kiedy moi uczniowie i ja zaczęliśmy zauważać, że roboty w naszym laboratorium wpatrują się w nas plastikowymi, wyłupiastymi oczami” – powiedziała Lipson.

Humanizowanie robotów

Według Lipsona podobny trend zauważył w sklepach spożywczych, gdzie zaobserwował roboty uzupełniające zapasy, które były humanizowane np. identyfikatorami.

„Wydawało się, że ludzie humanizują swoich robotycznych kolegów, nadając im oczy, tożsamość lub imię” – stwierdził. „To skłoniło nas do zastanowienia się, czy jeśli oczy i ubranie działają, dlaczego nie stworzyć robota o niezwykle wyrazistej i responsywnej ludzkiej twarzy?”

Robotycy już od dłuższego czasu pracują nad stworzeniem przekonujących twarzy robotów, ale zadanie nie jest łatwe. Części ciała robotów tradycyjnie składały się z metalu lub twardego plastiku, które są zbyt sztywne, aby poruszać się w taki sam sposób jak tkanka ludzka. Praca ze sprzętem robotycznym często była trudna, biorąc pod uwagę liczbę obwodów, czujników oraz energochłonnych i ciężkich silników. 

 

Konstruowanie EVA

Projekt rozpoczął się kilka lat temu w laboratorium Lipsona, kiedy student studiów licencjackich Zanwar Faraj poprowadził zespół studentów do zbudowania fizycznej „maszyny” robota. EVA została najpierw skonstruowana jako bezcielesne popiersie, a teraz robot może wyrażać sześć podstawowych emocji: złość, wstręt, strach, radość, smutek i zaskoczenie. EVA może także wyrażać inne, zróżnicowane emocje, opierając się na sztucznych „mięśniach” w postaci kabli i silników. Te sztuczne mięśnie przyciągają określone punkty na twarzy EVA, co umożliwia robotowi naśladowanie ruchów ponad 42 maleńkich mięśni przyczepionych do skóry i kości ludzkiej twarzy.

„Największym wyzwaniem podczas tworzenia EVA było zaprojektowanie systemu, który byłby na tyle kompaktowy, aby zmieścił się w ludzkiej czaszce, a jednocześnie był na tyle funkcjonalny, aby zapewnić szeroką gamę wyrazu twarzy” – powiedział Faraj.

Aby rozwiązać ten problem, badacze wykorzystali druk 3D do stworzenia części o skomplikowanych kształtach, które udało się zintegrować z czaszką EVA. 

„Pewnego dnia zajmowałam się swoimi sprawami, kiedy EVA nagle obdarzyła mnie szerokim, przyjaznym uśmiechem” – powiedziała Lipson. „Wiedziałem, że to kwestia czysto mechaniczna, ale odruchowo odwzajemniłem uśmiech”.

Programowanie sztucznej inteligencji 

Następnie zespół przystąpił do programowania sztucznej inteligencji, która umożliwiała ruchy twarzy EVA. Robot wykorzystuje sztuczną inteligencję do głębokiego uczenia się, aby „czytać”, a następnie naśladować wyraz twarzy otaczających go ludzi, a EVA uczy się metodą prób i błędów podczas oglądania swoich filmów. 

Według Boyuana Chena, doktoranta Lipsona, który kierował fazą oprogramowania, ruchy twarzy EVA były zbyt złożone, aby można było nimi kierować z góry zdefiniowanymi regułami, dlatego do stworzenia mózgu EVA wykorzystano kilka sieci neuronowych głębokiego uczenia się. 

Mózg robota musiał najpierw nauczyć się wykorzystywać swój złożony system mechanicznych mięśni do generowania mimiki, a następnie musiał nauczyć się „czytać” twarze ludzi, aby następnie naśladować. 

Zespół godzinami filmował EVA wykonującą przypadkowe miny, a następnie wewnętrzna sieć neuronowa EVA nauczyła się kojarzyć ruchy mięśni z materiałem wideo, co oznacza, że ​​miała wyczucie, jak działa jej własna twarz. Następnie wykorzystano drugą sieć, aby dopasować własny obraz siebie do ludzkiej twarzy, a po kilku korektach EVA była w stanie odczytać z kamery gesty ludzkiej twarzy, a następnie zareagować, naśladując ten sam wyraz twarzy. 

Tego typu roboty można stosować w miejscach takich jak szpitale, szkoły i domy. 

„Istnieje granica tego, jak bardzo my, ludzie, możemy angażować się emocjonalnie w chatboty działające w chmurze lub bezcielesne głośniki inteligentnego domu” – powiedział Lipson. „Wydaje się, że nasze mózgi dobrze reagują na roboty, które mają jakąś rozpoznawalną obecność fizyczną”.

„Roboty są ze sobą powiązane w naszym życiu na coraz wiele sposobów, dlatego budowanie zaufania między ludźmi i maszynami staje się coraz ważniejsze” – dodał Chen.

 

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją badającym najnowsze osiągnięcia w dziedzinie sztucznej inteligencji. Współpracował z wieloma startupami i publikacjami AI na całym świecie.