Wywiady
Laura Petrich, doktorantka w dziedzinie robotyki i uczenia maszynowego – seria wywiadów

Laura obecnie studiuje doktorat z informatyki pod kierunkiem dr. Patricka Pilarskiego i dr. Matthew E. Taylora. Ukończyła studia licencjackie z wyróżnieniem na kierunku informatyka na Uniwersytecie Alberty w 2019 roku oraz studia magisterskie na kierunku informatyka na Uniwersytecie Alberty w 2022 roku. Jej zainteresowania badawcze obejmują uczenie wzmocnione, interakcję człowieka z robotem, biomechatronikę i robotykę asystującą. Czerpiąc inspirację ze swoich studiów anatomicznych z dr. Pierre’em Lemelinem, badania Laury mają na celu opracowanie metod kontroli manipulacji robotycznej w celu zwiększenia funkcjonalności, użyteczności, niezawodności i bezpieczeństwa w świecie rzeczywistym.
Wzięliśmy udział w wywiadzie na corocznej konferencji Upper Bound poświęconej sztucznej inteligencji, która odbyła się w Edmonton, AB i była organizowana przez Amii (Alberta Machine Intelligence Institute).
Czym pierwotnie zainteresowała Cię informatyka?
Więc, kiedy wróciłam do szkoły, chciałam być lekarzem. I równowaga między pracą a życiem prywatnym jest dla mnie bardzo ważna, więc mogłam spędzać dużo czasu z rodziną. I zawsze chciałam pomagać ludziom, i trafiłam na zajęcia z informatyki w pierwszym roku studiów, i to było takie niesamowite narzędzie, które można wykorzystać do rozwiązywania problemów. I po prostu zakochałam się w rozwiązywaniu problemów i postanowiłam, że chcę pracować w dziedzinie technologii asystującej, gdzie mogłabym wykorzystać to rozwiązywanie problemów, aby naprawdę pomagać ludziom.
Jak odkryłaś, że technologia asystująca jest Twoją pasją?
Zajęłam się robotyką na studiach licencjackich, i to było takie zajęcia, na których używaliśmy zestawów Lego Mindstorm, aby nauczyć się podstaw mechatroniki i robotyki. I to wszystko nagle się połączyło, i okazało się, że jest to takie fajne, aby pracować z tymi systemami robotycznymi, i mogłam pisać programy, a potem natychmiast widzieć efekty. Więc, to po prostu miało sens, aby połączyć moją miłość do pracy z tymi systemami robotycznymi z moim pragnieniem, aby pomagać ludziom. Technologia asystująca pasuje idealnie do tego miejsca.
Czy możesz zdefiniować mechatronikę dla naszej publiczności?
To byłoby jak cokolwiek wewnątrz sfery robotyki, gdzie masz te systemy sprzętowe, i możesz je kontrolować, aby wywołać zmiany w środowisku.
Jakie są różne przypadki użycia, nad którymi pracowałaś dla tej technologii?
Obecnie pracuję w BLINC Lab (Bionic Limbs for Improved Natural Control) z Patrickiem (Pilarskim), a głównym przypadkiem użycia jest praca nad protezami kończyn górnych. Więc, mamy te inteligentne urządzenia robotyczne, które można kontrolować za pomocą sygnałów mięśniowych, i głównym przypadkiem użycia jest to, jak kontrolujemy te protezy, które są teraz przymocowane do ciała ludzkiego, aby zrobić to, co użytkownik chce.
Jak długo pracujesz nad tym konkretnie?
Zacznęłam doktorat w styczniu. Zrobiłam magisterium w grupie robotyki i widzenia komputerowego na Uniwersytecie Alberty, gdzie pracowałam nad manipulacją robotyczną z ramionami robotycznymi.
Tylko co teraz wkraczam w świat protez.
Jakie są niektóre obawy dotyczące bezpieczeństwa, które powiedziałabyś, że istnieją w tej technologii?
Z tymi inteligentnymi urządzeniami protez, zawsze stawiamy bezpieczeństwo na pierwszym miejscu. To zawsze jest to, o czym myślimy, ponieważ te urządzenia są przymocowane do człowieka. Więc, na końcu dnia, urządzenie nie ma ostatecznego słowa. Człowiek zawsze ma pełną kontrolę nad tym, co się dzieje. Możemy sugerować człowiekowi, “Myślimy, że chcesz to zrobić”, ale on zawsze ma ostateczną kontrolę nad tym, co się dzieje. Więc, zawsze myślimy o tym, co jest bezpieczeństwem osoby, która będzie używać tych urządzeń.
W poprzednim wywiadzie, Patrick mówił o tym, jak zwykle mózg musi nauczyć się adaptować do urządzenia, ale w tym przypadku urządzenie używa uczenia maszynowego, aby adaptować się do mózgu. Czy możesz omówić swoje poglądy na ten temat?
Tak. Więc, chcemy zbudować systemy ciągłego uczenia się, które będą działać na tych urządzeniach. Więc, to wszystko dotyczy mapowania sygnałów od użytkownika, które w naszym przypadku będą sygnałami EMG. Więc, powierzchniowe EMG, umieszcza się elektrody na mięśniach resztkowych, które osoba ma, a potem co robimy z tymi sygnałami wejściowymi? Więc, chcemy je mapować na ruch robotyczny, prawda? Czy chcesz otworzyć dłoń? Czy chcesz zamknąć dłoń? Najpierw musimy zdecydować, jak rozwiązać ten problem mapowania, i to jest miejsce, w którym pojawia się uczenie maszynowe.
Mamy systemy rozpoznawania wzorców, więc możemy przewidzieć, co się dzieje z konkretną aktywacją mięśni. Chcemy, aby urządzenie i składniki uczenia maszynowego adaptowały się do osoby w czasie, gdy przechodzą przez zmiany lub gdy ich intencja się zmienia.
Jaki rodzaj harmonogramu czasowego myślisz, że będzie potrzebny, aby zobaczyć te urządzenia w świecie rzeczywistym?
Mam nadzieję, że w trakcie mojego doktoratu. To jest mój cel, aby rozwiązać ten problem kontroli dla protez kończyn górnych.
To byłoby niesamowite. A jaka jest Twoja wizja przyszłości robotyki asystującej, powiedzmy, w ciągu 10 lat lub 20 lat?
Wyobrażam sobie świat, w którym osoby, które chcą mieć protezę kończyny, aby używać jej w codziennym życiu, będą mogły ją używać w taki sposób, w jaki używamy naszych ramion. Więc, aby to było niezawodne, aby to było intuicyjne, aby to było łatwe w użyciu, to jest to, czego chcę.
A czy widzisz przyszłość, w której mniejsza osoba będzie miała mniejszą protezę? Czy myślisz, że wszystkie będą takie same?
Nie, absolutnie. Myślę, że dla czegoś tak osobistego, jak to, chcesz, aby te urządzenia czuły się jak część Twojego własnego ciała. Prawda? Chcesz, aby to było częścią Ciebie. Więc, to prowadzi nas do personalizowanej i indywidualnej opieki zdrowotnej. Te protezy kończyn będą musiały być dopasowane i dostosowane do osoby, która będzie je używać, przynajmniej w moim zdaniem. Już teraz widzimy to. Prawda, kiedy idziesz do, powiedzmy, szpitala rehabilitacyjnego Glenrose w Edmonton, i dostajesz nową protezę, robisz modelowanie 3D Twojej kończyny resztkowej, i dostosowujesz protezę do Ciebie. Więc, już teraz widzimy, jak to się dzieje, i dla tych inteligentnych urządzeń, będzie to jeszcze bardziej.
Więc, będą to urządzenia drukowane w technologii 3D, prawdopodobnie, dla użytkownika.
Tak, drukowane w technologii 3D, dopasowane i dostosowane do użytkownika, a także systemy kontroli personalizowane.
A jak długo trwa, aby użytkownik nauczył się używać jednego z tych systemów?
Naszym celem jest to, abyśmy mogli wytrenować bardziej uogólniony model uczenia maszynowego, a potem dostosować go do osoby w ciągu 5-10 minut. To byłby nasz cel.
Gdy już to osiągniesz, co chciałabyś robić dalej?
Duża część moich badań to także praca z wydziałem anatomii na Uniwersytecie Alberty, i jestem całkowicie zafascynowana tym, jak my, ludzie, manipulujemy światem wokół nas. Więc, wszystko, co dotyczy ludzkiej kończyny górnej. Więc, nasze ramiona i ręce są całkowicie fascynujące. Więc, chciałabym skupić wszystkie swoje wysiłki na protezach kończyn górnych i naprawdę zrobić te urządzenia użytecznymi dla ludzi w świecie rzeczywistym.
W jaki sposób jest to bardziej wymagające niż kończyny dolne?
Kończyna dolna, ruch jest bardzo powtarzalny. Jeśli pomyślisz o naszym chodu, to jest łatwiejszy problem do rozwiązania. Podczas gdy dla kończyny górnej, musisz być w stanie manipulować obiektami w 3D, masz o wiele więcej stopni swobody. Jeśli pomyślisz o tym, jeśli zamkniesz oczy i dotkniesz czegoś, wciąż możesz “zobaczyć” świat wokół siebie przez Twoje ręce. Więc, mamy te niesamowite organy zmysłowe, które możemy wykorzystać do eksploracji środowiska. Więc, aby móc dać to z powrotem społeczności medycznej przez protezy kończyn, myślę, że byłoby to niesamowite.
Czy możesz podzielić się tym, jak czerpiesz inspirację z badań anatomicznych?
Pracuję z dr. Pierre’em Lemelinem w wydziale anatomii na Uniwersytecie Alberty przez ostatnie pięć lat. Mam nadzieję, że poprzez studium anatomii ludzkiej i zrozumienie, jak my, ludzie, manipulujemy obiektami w środowisku, co są nasze ścieżki nerwowe, które mięśnie są aktywowane, możemy wykorzystać tę wiedzę, aby nie tylko poprawić strukturę protez kończyn.
Czy są małe miejsca w rzeczywistej konstrukcji protezy kończyny, które możemy zmienić, aby zobaczyć ogromny wzrost funkcjonalności? Ale także, systemy kontroli podstawowej, jak je używamy. Jeśli możemy zrozumieć dokładnie, które nerwy są aktywowane, kiedy myślimy “Otwórz moją dłoń”, to czy możemy wykorzystać to, aby przewidzieć, co użytkownik chce zrobić z protezą kończyny, a potem wykonać ten ruch w urządzeniu robotycznym.
Dziękujemy za niesamowity wywiad, czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić następujące zasoby:
- Dr. Patrick M. Pilarski – Unite.AI Wywiad
- BLINC Lab (Bionic Limbs for Improved Natural Control))
- Upper Bound AI Konferencja.
- Amii (Alberta Machine Intelligence Institute)












