Robotyka
Nowe oprogramowanie opracowane w celu ulepszenia protetyki robotycznej

Naukowcy z North Carolina State University opracowali nowe oprogramowanie w celu ulepszenia robotycznych protez lub egzoszkieletów. Nowe oprogramowanie można zintegrować z istniejącym sprzętem, co zapewnia bezpieczniejsze i bardziej naturalne chodzenie po różnych terenach.
Artykuł nosi tytuł „Przewidywanie kontekstu środowiskowego dla protez kończyn dolnych z kwantyfikacją niepewności.„Ukazało się w Transakcje IEEE dotyczące nauki i inżynierii automatyki.
Dostosowanie do różnych terenów
Współautorem artykułu jest Edgar Lobaton. Jest profesorem nadzwyczajnym inżynierii elektrycznej i komputerowej na uniwersytecie.
„Zrobotyzowane protezy kończyn dolnych muszą zachowywać się inaczej w zależności od terenu, po którym chodzą użytkownicy” – mówi Lobaton. „Stworzone przez nas ramy pozwalają sztucznej inteligencji w protezach robotycznych przewidywać rodzaj terenu, po którym będą stąpać użytkownicy, określać ilościowo niepewności związane z tymi przewidywaniami, a następnie uwzględniać tę niepewność przy podejmowaniu decyzji”.
Naukowcy skupili się na sześciu różnych obszarach, a każdy z nich wymagał dostosowania zachowania robotycznej protezy. Były to płytki, beton, cegła, trawa, „na górze” i „na dole”.
Boxuan Zhong jest głównym autorem artykułu i doktorem. absolwent NC State.
„Jeśli stopień niepewności jest zbyt wysoki, sztuczna inteligencja nie jest zmuszona do podjęcia wątpliwej decyzji – może zamiast tego powiadomić użytkownika, że nie ma wystarczającej pewności co do jego przewidywań, aby podjąć działania, lub może domyślnie zastosować „bezpieczną” „w trybie” – mówi Zhong.
Włączenie elementów sprzętu i oprogramowania
Nowa struktura opiera się na połączeniu elementów sprzętu i oprogramowania i można ją stosować z dowolnym robotycznym egzoszkieletem lub robotyczną protezą kończyny dolnej.
Jednym z nowych aspektów tego frameworka jest kamera jako kolejny element sprzętu. W badaniu kamery noszono na okularach i umieszczano je na protezie kończyny dolnej. Następnie badacze zaobserwowali, w jaki sposób sztuczna inteligencja była w stanie wykorzystać dane z wizji komputerowej z dwóch różnych typów kamer, najpierw osobno, a następnie razem.
Helen Huang jest współautorką artykułu. Jest wybitnym profesorem inżynierii biomedycznej rodziny Jacksonów na Połączonym Wydziale Inżynierii Biomedycznej na Uniwersytecie Karoliny Północnej w Chapel Hill.
„Włączanie wizji komputerowej do oprogramowania sterującego robotyką do noszenia to nowy, ekscytujący obszar badań” – mówi Huang. „Odkryliśmy, że korzystanie z obu kamer działało dobrze, ale wymagało dużej mocy obliczeniowej i może być zbyt kosztowne. Odkryliśmy jednak również, że korzystanie wyłącznie z kamery zamontowanej na kończynie dolnej sprawdzało się całkiem nieźle — szczególnie w przypadku prognoz krótkoterminowych, np. tego, jak będzie wyglądał teren podczas następnego lub dwóch kroków”.
Zdaniem Lobatona prace te można zastosować w każdym typie systemu głębokiego uczenia się.
„Wymyśliliśmy lepszy sposób na nauczenie systemów głębokiego uczenia się, jak oceniać i określać niepewność w sposób, który pozwala systemowi uwzględniać niepewność w podejmowaniu decyzji”, mówi Lobaton. „Jest to z pewnością istotne w przypadku robotyki protetycznej, ale nasza praca może być zastosowana w dowolnym systemie głębokiego uczenia”.
Szkolenie systemu AI
Aby przeszkolić system sztucznej inteligencji, kamery umieszczono na pełnosprawnych uczestnikach, którzy następnie przemieszczali się po różnych środowiskach wewnątrz i na zewnątrz. Następnym krokiem było umożliwienie osobie po amputacji kończyny dolnej poruszania się w tym samym środowisku podczas noszenia kamer.
„Odkryliśmy, że model można odpowiednio przenieść, aby system mógł działać w przypadku osób z różnych populacji” – mówi Lobaton. „Oznacza to, że sztuczna inteligencja działała dobrze, mimo że była szkolona przez jedną grupę ludzi i używana przez kogoś innego”.
Następnym krokiem jest przetestowanie frameworka w urządzeniu zrobotyzowanym.
„Jesteśmy podekscytowani możliwością włączenia tej platformy do systemu sterowania pracującą protetyką robotyczną — to kolejny krok” – mówi Huang.
Zespół będzie także pracować nad zwiększeniem wydajności systemu poprzez ograniczenie wprowadzania i przetwarzania danych wizualnych.