Connect with us

Robotica

Robot leert zichzelf te begrijpen zonder menselijke hulp

mm

Ingenieurs aan de Columbia University School of Engineering and Applied Science hebben de eerste robot ooit gemaakt die een model van zijn hele lichaam van scratch kan leren, helemaal zonder menselijke hulp.

De studie werd gepubliceerd in Science Robotics.

De robot leren

De onderzoekers lieten zien hoe de robot een kinematisch model van zichzelf kan maken en een zelfmodel kan gebruiken om beweging te plannen, doelen te bereiken en obstakels te vermijden in een breed scala aan situaties. Het kon ook automatisch schade aan zijn lichaam herkennen en compenseren.

Een robotarm werd geplaatst in een cirkel van vijf streaming videocamera’s, en de robot keek naar zichzelf door de camera’s terwijl hij vrij bewoog. Het bewoog en boog om precies te leren hoe zijn lichaam reageerde op verschillende motoropdrachten, en na drie uur hield het op. Het interne diepe neurale netwerk van de robot leerde vervolgens de relatie tussen de motoractie van de robot en het ingenomen volume in zijn omgeving.

Hod Lipson is professor in de mechanische ingenieurswetenschappen en directeur van de Creative Machines Lab van Columbia.

“We waren echt benieuwd hoe de robot zichzelf voorstelde,” zei Lipson. “Maar je kunt niet zomaar in een neurale netwerk kijken, het is een zwarte doos.”

De onderzoekers werkten aan verschillende visualisatietechnieken voordat het zelfbeeld langzaam tevoorschijn kwam.

“Het was een soort zacht gloeiende wolk die het driedimensionale lichaam van de robot leek te omvatten,” vervolgde Lipson. “Toen de robot bewoog, volgde de zacht gloeiende wolk hem zachtjes.”

Het zelfmodel van de robot was nauwkeurig tot ongeveer 1% van zijn werkruimte.

https://www.youtube.com/watch?v=3jbBEMfZTSg

Mogelijke toepassingen en verbeteringen

Door robots in staat te stellen zichzelf te modelleren zonder menselijke hulp, kunnen deskundigen een breed scala aan verbeteringen bereiken. Ten eerste bespaart het arbeid en laat het de robot toe zijn eigen slijtage en afbraak te controleren, waardoor het eventuele schade kan detecteren en compenseren. De auteurs zeggen dat deze mogelijkheid autonome systemen meer zelfstandig zal maken. Een voorbeeld dat ze geven is van een fabrieksrobot, die met deze mogelijkheid kan detecteren dat er iets niet goed zit voordat hij om hulp vraagt.

Boyuan Chen is de eerste auteur van de studie. Hij leidde het onderzoek en is nu assistant professor aan de Duke University.

“Wij mensen hebben duidelijk een notie van onszelf,” zei Chen. “Sluit je ogen en probeer je voor te stellen hoe je eigen lichaam zou bewegen als je een bepaalde actie zou uitvoeren, zoals je armen vooruit strekken of een stap achteruit zetten. Ergens in onze hersenen hebben we een notie van onszelf, een zelfmodel dat ons vertelt welk volume van onze directe omgeving we innemen en hoe dat volume verandert als we bewegen.”

Lipson werkt al jaren aan het vinden van nieuwe manieren om robots een vorm van dit zelfbewustzijn te geven.

“Zelfmodellering is een primitieve vorm van zelfbewustzijn,” legde hij uit. “Als een robot, dier of mens een nauwkeurig zelfmodel heeft, kan het beter functioneren in de wereld, kan het betere beslissingen nemen en heeft het een evolutionair voordeel.”

De onderzoekers erkenden de verschillende beperkingen en risico’s die verbonden zijn aan het geven van machines autonomie door middel van zelfbewustzijn, en Lipson zegt dat het specifieke type zelfbewustzijn in deze studie “triviaal is in vergelijking met dat van mensen, maar je moet ergens beginnen. We moeten langzaam en voorzichtig gaan, zodat we de voordelen kunnen plukken en de risico’s kunnen minimaliseren.”

Alex McFarland is een AI-journalist en schrijver die de laatste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met talloze AI-startups en publicaties wereldwijd.