Connect with us

Robotikk

Robotene bruker AI for å «føle» smerte og selv-reparere

mm

Robotene er ett skritt nærmere å være mer lik levende vesener med en ny utvikling innen feltet. Forskere fra Nanyang Technological University, Singapore (NTU Singapore) har utviklet et AI-system som gjør det mulig for roboter å gjenkjenne smerte og selv-reparere. 

Det nylig utviklede systemet baserer seg på AI-aktiverede sensor-noder, som prosesserer «smerte» og deretter reagerer på den. Denne smerten identifiseres når det er trykk påført av en ytre fysisk kraft. Den andre store delen av systemet er selv-reparasjon. Roboten kan reparere skaden, når det er en mindre «skade», uten å måtte stole på menneskelig inngripen.

Forskningen ble publisert i august i tidsskriftet Nature Communications.

De fleste av verdens nåværende roboter mottar informasjon om deres nærmiljø gjennom et nettverk av sensorer. Disse sensorene prosesserer imidlertid ikke informasjon, men sender informasjonen til en sentral prosesseringsenhet. Denne sentrale prosesseringsenheten er der læring skjer, og det betyr at nåværende roboter krever mange kabler. Dette systemet resulterer i lengre responstid. 

Foruten lengre responstid, er disse robotene ofte lett skadet og krever mye vedlikehold og reparasjon. 

Det nye systemet

I det nye systemet utviklet av forskerne, er AI innbygget i nettverket av sensor-noder. Det er flere mindre og mindre kraftfulle prosesseringsenheter, som sensor-nodene er koblet til. Dette oppsettet gjør det mulig for læring å skje lokalt, noe som igjen reduserer mengden av kabler som trengs og responstid. Spesifikt er det redusert fem til ti ganger sammenlignet med konvensjonelle roboter.

Selv-reparasjons-systemet kommer fra innføringen av et selv-helende ion-gel-materiale i systemet. Dette gjør det mulig for robotene å gjenopprette mekaniske funksjoner når de er skadet, uten hjelp fra mennesker. 

Associate Professor Arindam Basu er med-forfatter av studien. Han kommer fra School of Electrical & Electronic Engineering. 

“For at roboter skal kunne arbeide sammen med mennesker en dag, er en bekymring hvordan man kan sikre at de vil samhandle trygt med oss. Av den grunn har forskere over hele verden funnet måter å bringe en følelse av bevissthet til roboter, som å kunne «føle» smerte, å reagere på den og å tåle harde driftsforhold. Imidlertid er kompleksiteten ved å sette sammen det mangfold av sensorer som kreves og den resulterende skjørbheten til et slikt system en stor hindring for vidstrakt adopsjon.”

Ifølge Basu, som også er en neuromorf computing-ekspert, “Vår arbeid har demonstrert muligheten for et robot-system som kan prosessere informasjon effektivt med minimalt kabler og kretser. Ved å redusere antallet elektroniske komponenter som kreves, skal vårt system bli rimelig og skalerbart. Dette vil hjelpe å akselerere adopsjonen av en ny generasjon roboter på markedet.” 

Å lære roboten å føle smerte

For å lære roboten hvordan den skal føle smerte, baserte teamet seg på memtransistorer, som fungerer som «hjernelignende» elektroniske enheter. Disse enhetene kan ha minne og informasjonsbehandling, og fungerer som kunstige smerte-reseptorer og synapser. 

Studien demonstrerte hvordan roboten kunne fortsette å reagere på trykk selv etter at den var skadet. Etter en «skade», som et kutt, mister roboten mekanisk funksjon. Da kommer selv-helende ion-gel inn og får roboten til å helbrede «såret», i praksis sy det sammen. 

Rohit Abraham John er førsteforfatter av studien og forsker ved School of Materials Science & Engineering at NTU.

“De selv-helende egenskapene til disse nye enhetene hjelper det robotiske systemet til å sy seg sammen når det er «skadet» med et kutt eller en skrape, selv ved romtemperatur,” sier John. “Dette ligner på hvordan vårt biologiske system fungerer, mye som måten menneskehud helbreder seg selv etter et kutt.” 

“I våre tester kan vår robot «overleve» og reagere på uforvollte mekaniske skader som oppstår fra mindre skader som skraper og bump, mens den fortsatt fungerer effektivt. Hvis et slikt system ble brukt med roboter i virkelige verdenssettinger, kunne det bidra til besparelser i vedlikehold.”

Ifølge associate professor Nripan Mathews, som er med-forfatter fra School of Materials Science & Engineering at NTU, “Konvensjonelle roboter utfører oppgaver på en strukturert programmerbar måte, men våre kan oppfatte deres omgivelser, lære og tilpasse seg etter hvert. De fleste forskerne fokuserer på å lage mer og mer sensitive sensorer, men fokuserer ikke på utfordringene med hvordan de kan ta beslutninger effektivt. Slik forskning er nødvendig for den neste generasjonen av roboter til å samhandle effektivt med mennesker.”

“I dette arbeidet har vårt team tatt en tilnærming som er utenfor det vanlige, ved å bruke nye læringsmaterialer, enheter og fabrikasjonsmetoder for roboter til å ligne menneskelige neuro-biologiske funksjoner. Mens det fortsatt er på prototype-stadiet, har våre funn lagt ned viktige rammeverk for feltet, og peker vei fremover for forskerne til å takle disse utfordringene.”

Forsknings-teamet vil nå vende seg til partnere i industrien og regjeringsforskningslaboratorier for å videreutvikle systemet. 

Alex McFarland er en AI-journalist og forfatter som utforsker de nyeste utviklingene innen kunstig intelligens. Han har samarbeidet med tallrike AI-startups og publikasjoner verden over.