Kontakt med oss

Robotics

A New Dawn in Robotics: Touch-Based Object Rotation

mm

I en banebrytende utvikling har et team av ingeniører ved University of California San Diego (UCSD) designet en robothånd som kan rotere objekter ved hjelp av berøring alene, uten behov for visuelle input. Dette nyskapende tilnærming ble inspirert av den uanstrengte måten mennesker håndterer gjenstander uten å nødvendigvis se dem.

En berøringsfølsom tilnærming til objektmanipulering

Teamet utstyrte en firefingret robothånd med 16 berøringssensorer spredt over håndflaten og fingrene. Hver sensor, som koster rundt $12, utfører en enkel funksjon: den oppdager om en gjenstand berører den eller ikke. Denne tilnærmingen er unik ettersom den er avhengig av en rekke rimelige berøringssensorer med lav oppløsning som bruker enkle binære signaler – berøring eller ingen berøring – for å utføre robotrotasjon i hånden.

I motsetning til dette er andre metoder avhengig av noen få berøringssensorer med høy oppløsning og høy pris som er festet til et lite område av robothånden, først og fremst ved fingertuppene. Xiaolong Wang, professor i elektro- og datateknikk ved UC San Diego, som ledet studien, forklarte at disse tilnærmingene har flere begrensninger. De minimerer sjansen for at sensorene kommer i kontakt med objektet, og begrenser systemets sanseevne. Høyoppløselige berøringssensorer som gir informasjon om tekstur er ekstremt vanskelig å simulere og er uoverkommelig dyre, noe som gjør det utfordrende å bruke dem i virkelige eksperimenter.

Rotere uten å se: Mot fingerferdighet i hånden gjennom berøring

Kraften til binære signaler

«Vi viser at vi ikke trenger detaljer om et objekts tekstur for å utføre denne oppgaven. Vi trenger bare enkle binære signaler om sensorene har berørt objektet eller ikke, og disse er mye lettere å simulere og overføre til den virkelige verden, sa Wang.

Teamet trente systemet sitt ved å bruke simuleringer av en virtuell robothånd som roterer et mangfoldig sett med objekter, inkludert de med uregelmessige former. Systemet vurderer hvilke sensorer på hånden som blir berørt av objektet på et gitt tidspunkt under rotasjonen. Den vurderer også de nåværende posisjonene til håndens ledd, så vel som deres tidligere handlinger. Ved å bruke denne informasjonen instruerer systemet robothånden hvilket ledd som må gå hvor i neste tidspunkt.

Fremtiden for robotmanipulasjon

Forskerne testet systemet sitt på den virkelige robothånden med objekter som systemet ennå ikke har møtt. Robothånden var i stand til å rotere en rekke gjenstander uten å stoppe eller miste grepet. Gjenstandene inkluderte en tomat, en pepper, en boks med peanøttsmør og en leke-gummiand, som var den mest utfordrende gjenstanden på grunn av formen. Objekter med mer komplekse former tok lengre tid å rotere. Robothånden kan også rotere objekter rundt forskjellige akser.

Teamet jobber nå med å utvide sin tilnærming til mer komplekse manipulasjonsoppgaver. De utvikler for tiden teknikker som gjør det mulig for robothender å fange, kaste og sjonglere, for eksempel. "Manipulation i hånden er en veldig vanlig ferdighet som vi mennesker har, men det er veldig komplisert for roboter å mestre," sa Wang. "Hvis vi kan gi roboter denne ferdigheten, vil det åpne døren til den typen oppgaver de kan utføre."

Denne utviklingen markerer et betydelig skritt fremover innen robotikk, som potensielt baner vei for roboter som kan manipulere objekter i mørket eller i visuelt utfordrende miljøer.

Alex McFarland er en AI-journalist og skribent som utforsker den siste utviklingen innen kunstig intelligens. Han har samarbeidet med en rekke AI-startups og publikasjoner over hele verden.