stub Nowy świt w robotyce: obracanie obiektów za pomocą dotyku – Unite.AI
Kontakt z nami

Robotyka

Nowy świt w robotyce: obrót obiektu za pomocą dotyku

Opublikowany

 on

W ramach przełomowego projektu zespół inżynierów z Uniwersytetu Kalifornijskiego w San Diego (UCSD) zaprojektował robotyczną rękę, która może obracać obiekty za pomocą samego dotyku, bez konieczności wprowadzania danych wzrokowych. Ten innowacyjne podejście został zainspirowany prostym sposobem, w jaki ludzie radzą sobie z przedmiotami, niekoniecznie musząc je widzieć.

Dotykowe podejście do manipulacji obiektami

Zespół wyposażył czteropalczastą rękę robota w 16 czujników dotykowych rozmieszczonych na dłoni i palcach. Każdy czujnik, kosztujący około 12 dolarów, pełni prostą funkcję: wykrywa, czy obiekt go dotyka, czy nie. To podejście jest wyjątkowe, ponieważ opiera się na wielu niedrogich czujnikach dotykowych o niskiej rozdzielczości, które wykorzystują proste sygnały binarne — dotyk lub brak dotyku — do wykonywania automatycznego obrotu dłonią.

Z kolei inne metody opierają się na kilku kosztownych czujnikach dotykowych o wysokiej rozdzielczości umieszczonych na niewielkim obszarze dłoni robota, głównie na czubkach palców. Xiaolong Wang, profesor inżynierii elektrycznej i komputerowej na Uniwersytecie Kalifornijskim w San Diego, który kierował badaniem, wyjaśnił, że podejścia te mają kilka ograniczeń. Minimalizują ryzyko kontaktu czujników z obiektem, ograniczając zdolność wykrywania systemu. Czujniki dotykowe o wysokiej rozdzielczości dostarczające informacji o teksturze są niezwykle trudne do symulacji i są zbyt drogie, co utrudnia ich wykorzystanie w rzeczywistych eksperymentach.

Obracanie bez widzenia: w stronę zręczności ręki poprzez dotyk

Siła sygnałów binarnych

„Pokazujemy, że do wykonania tego zadania nie potrzebujemy szczegółów dotyczących tekstury obiektu. Potrzebujemy jedynie prostych sygnałów binarnych informujących, czy czujniki dotknęły obiektu, czy nie, a znacznie łatwiej jest je symulować i przenieść do świata rzeczywistego” – powiedział Wang.

Zespół przeszkolił swój system, korzystając z symulacji wirtualnej ręki robota obracającej różnorodny zestaw obiektów, w tym obiekty o nieregularnych kształtach. System ocenia, które czujniki na dłoni są dotykane przez obiekt w dowolnym momencie obrotu. Ocenia także aktualne położenie stawów ręki, a także ich poprzednią czynność. Korzystając z tych informacji, system instruuje robotyczną rękę, który staw ma się udać w następnym punkcie czasowym.

Przyszłość manipulacji robotycznej

Naukowcy przetestowali swój system na prawdziwej dłoni robota z obiektami, których system jeszcze nie napotkał. Robotyczna dłoń była w stanie obracać różne obiekty bez zatrzymywania się i utraty przyczepności. Wśród przedmiotów znajdował się pomidor, papryka, puszka masła orzechowego i gumowa kaczka-zabawka, która ze względu na swój kształt stanowiła największe wyzwanie. Obracanie obiektów o bardziej złożonych kształtach trwało dłużej. Robotyczna ręka może również obracać obiekty wokół różnych osi.

Zespół pracuje obecnie nad rozszerzeniem swojego podejścia na bardziej złożone zadania manipulacyjne. Obecnie opracowują techniki umożliwiające robotycznym dłoniom na przykład łapanie, rzucanie i żonglowanie. „Manipulacja ręką to bardzo powszechna umiejętność, którą posiadamy my, ludzie, ale robotom bardzo trudno jest ją opanować” – powiedział Wang. „Jeśli możemy dać robotom tę umiejętność, otworzy to drzwi do zadań, które mogą wykonywać”.

Rozwój ten stanowi znaczący krok naprzód w dziedzinie robotyki, potencjalnie torując drogę robotom, które mogą manipulować obiektami w ciemności lub w trudnych wizualnie środowiskach.

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją badającym najnowsze osiągnięcia w dziedzinie sztucznej inteligencji. Współpracował z wieloma startupami i publikacjami AI na całym świecie.