Connect with us

Robotikk

Robot lærer å forstå seg selv uten menneskelig assistanse

mm

Ingeniører ved Columbia University School of Engineering and Applied Science har laget den første robotten som kan lære en modell av hele sin kropp fra scratch, uten menneskelig assistanse. 

Studien ble publisert i Science Robotics

Å lære robotten

Forskerne viste hvordan robotten kan lage en kinematisk modell av seg selv og bruke en selv-modell til å planlegge bevegelse, nå mål og unngå hindringer i en rekke situasjoner. Den kunne også automatisk gjenkjenne og kompensere for skader på sin kropp. 

En robotarm ble plassert innenfor en sirkel av fem strømmende video-kameraer, og robotten så på seg selv gjennom kameraene mens den beveget seg fritt. Den beveget seg og forvrengte seg for å lære nøyaktig hvordan dens kropp beveget seg i respons til forskjellige motor-kommandoer, og etter tre timer, stoppet den endelig. Robotens interne dypt neurale nettverk fullførte deretter å lære relasjonen mellom robotens motor-handling og den okkuperte volumet i dens omgivelser. 

Hod Lipson er professor i maskinteknikk og direktør for Columbia’s Creative Machines Lab. 

“Vi var virkelig nysgjerrige på hvordan robotten forestilte seg selv,” sa Lipson. “Men du kan ikke bare kikke inn i et neuralt nettverk, det er en black box.” 

Forskerne arbeidet med flere visualiserings-teknikker før selv-bildet gradvis oppstod. 

“Det var en slags mykt flimmer- sky som syntes å omfavne robotens tredimensjonale kropp,” fortsatte Lipson. “Da robotten beveget seg, fulgte den flimmer-skyen den mykt.” 

Robotens selv-modell var nøyaktig til omkring 1% av dens arbeidsområde.

https://www.youtube.com/watch?v=3jbBEMfZTSg

Potensielle anvendelser og fremgang

Ved å aktivere roboter til å modellere seg selv uten menneskelig assistanse, kan eksperter oppnå en rekke fremgang. For det første, sparer det arbeid og lar robotten overvåke sin egen slitasje, detektere og kompensere for eventuelle skader. Forfatterne sier at denne evnen vil hjelpe autonome systemer å bli mer selvstendige. Et eksempel de gir er en fabrikk-robot, som kunne bruke denne evnen til å detektere at noe ikke beveget seg riktig før den kalte på assistanse. 

Boyuan Chen er studiens første forfatter. Han ledet arbeidet og er nå en assistent-professor ved Duke University. 

“Vi mennesker har tydeligvis en forestilling om oss selv,” sa Chen. “Lukk øynene dine og prøv å forestille deg hvordan din egen kropp ville bevege seg hvis du skulle utføre en handling, som å strekke armene fremover eller ta et skritt bakover. Et sted inne i hjernen vår har vi en forestilling om oss selv, en selv-modell som informerer oss om hva volum av vår umiddelbare omgivelse vi okkuperer, og hvordan det volumet endrer seg når vi beveger oss.”

Lipson har arbeidet i årevis for å finne nye måter å gi roboter en form for denne selv-bevisstheten. 

“Selv-modellering er en primitiv form for selv-bevissthet,” forklarte han. “Hvis en robot, dyr eller menneske, har en nøyaktig selv-modell, kan den fungere bedre i verden, den kan ta bedre beslutninger, og den har en evolusjonær fordel.”

Forskerne anerkjente de ulike begrensningene og risikoene involvert med å gi maskiner autonomi gjennom selv-bevissthet, og Lipson sørger for å si at den spesifikke typen selv-bevissthet i denne studien er “triviell sammenlignet med den til mennesker, men du må starte et sted. Vi må gå sakte og forsiktige, så vi kan høste fordelen samtidig som vi minimiserer risikoene.” 

Alex McFarland er en AI-journalist og forfatter som utforsker de nyeste utviklingene innen kunstig intelligens. Han har samarbeidet med tallrike AI-startups og publikasjoner verden over.