Kontakt z nami

Robotyka

Nowe oprogramowanie opracowane w celu ulepszenia protetyki robotycznej 

mm

Naukowcy z North Carolina State University opracowali nowe oprogramowanie w celu ulepszenia robotycznych protez lub egzoszkieletów. Nowe oprogramowanie można zintegrować z istniejącym sprzętem, co zapewnia bezpieczniejsze i bardziej naturalne chodzenie po różnych terenach. 

Artykuł nosi tytuł „Przewidywanie kontekstu środowiskowego dla protez kończyn dolnych z kwantyfikacją niepewności.„Ukazało się w Transakcje IEEE dotyczące nauki i inżynierii automatyki.

Dostosowanie do różnych terenów

Współautorem artykułu jest Edgar Lobaton. Jest profesorem nadzwyczajnym inżynierii elektrycznej i komputerowej na uniwersytecie. 

„Zrobotyzowane protezy kończyn dolnych muszą zachowywać się inaczej w zależności od terenu, po którym chodzą użytkownicy” – mówi Lobaton. „Stworzone przez nas ramy pozwalają sztucznej inteligencji w protezach robotycznych przewidywać rodzaj terenu, po którym będą stąpać użytkownicy, określać ilościowo niepewności związane z tymi przewidywaniami, a następnie uwzględniać tę niepewność przy podejmowaniu decyzji”.

Naukowcy skupili się na sześciu różnych obszarach, a każdy z nich wymagał dostosowania zachowania robotycznej protezy. Były to płytki, beton, cegła, trawa, „na górze” i „na dole”. 

Boxuan Zhong jest głównym autorem artykułu i doktorem. absolwent NC State.

„Jeśli stopień niepewności jest zbyt wysoki, sztuczna inteligencja nie jest zmuszona do podjęcia wątpliwej decyzji – może zamiast tego powiadomić użytkownika, że ​​nie ma wystarczającej pewności co do jego przewidywań, aby podjąć działania, lub może domyślnie zastosować „bezpieczną” „w trybie” – mówi Zhong.

Włączenie elementów sprzętu i oprogramowania

Nowa struktura opiera się na połączeniu elementów sprzętu i oprogramowania i można ją stosować z dowolnym robotycznym egzoszkieletem lub robotyczną protezą kończyny dolnej. 

Jednym z nowych aspektów tego frameworka jest kamera jako kolejny element sprzętu. W badaniu kamery noszono na okularach i umieszczano je na protezie kończyny dolnej. Następnie badacze zaobserwowali, w jaki sposób sztuczna inteligencja była w stanie wykorzystać dane z wizji komputerowej z dwóch różnych typów kamer, najpierw osobno, a następnie razem. 

Helen Huang jest współautorką artykułu. Jest wybitnym profesorem inżynierii biomedycznej rodziny Jacksonów na Połączonym Wydziale Inżynierii Biomedycznej na Uniwersytecie Karoliny Północnej w Chapel Hill. 

„Włączanie wizji komputerowej do oprogramowania sterującego robotyką do noszenia to nowy, ekscytujący obszar badań” – mówi Huang. „Odkryliśmy, że korzystanie z obu kamer działało dobrze, ale wymagało dużej mocy obliczeniowej i może być zbyt kosztowne. Odkryliśmy jednak również, że korzystanie wyłącznie z kamery zamontowanej na kończynie dolnej sprawdzało się całkiem nieźle — szczególnie w przypadku prognoz krótkoterminowych, np. tego, jak będzie wyglądał teren podczas następnego lub dwóch kroków”.

Zdaniem Lobatona prace te można zastosować w każdym typie systemu głębokiego uczenia się.

„Wymyśliliśmy lepszy sposób na nauczenie systemów głębokiego uczenia się, jak oceniać i określać niepewność w sposób, który pozwala systemowi uwzględniać niepewność w podejmowaniu decyzji”, mówi Lobaton. „Jest to z pewnością istotne w przypadku robotyki protetycznej, ale nasza praca może być zastosowana w dowolnym systemie głębokiego uczenia”.

Szkolenie systemu AI

Aby przeszkolić system sztucznej inteligencji, kamery umieszczono na pełnosprawnych uczestnikach, którzy następnie przemieszczali się po różnych środowiskach wewnątrz i na zewnątrz. Następnym krokiem było umożliwienie osobie po amputacji kończyny dolnej poruszania się w tym samym środowisku podczas noszenia kamer. 

„Odkryliśmy, że model można odpowiednio przenieść, aby system mógł działać w przypadku osób z różnych populacji” – mówi Lobaton. „Oznacza to, że sztuczna inteligencja działała dobrze, mimo że była szkolona przez jedną grupę ludzi i używana przez kogoś innego”.

Następnym krokiem jest przetestowanie frameworka w urządzeniu zrobotyzowanym. 

„Jesteśmy podekscytowani możliwością włączenia tej platformy do systemu sterowania pracującą protetyką robotyczną — to kolejny krok” – mówi Huang.

Zespół będzie także pracować nad zwiększeniem wydajności systemu poprzez ograniczenie wprowadzania i przetwarzania danych wizualnych. 

 

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją badającym najnowsze osiągnięcia w dziedzinie sztucznej inteligencji. Współpracował z wieloma startupami i publikacjami AI na całym świecie.