Connect with us

Robots gebruiken AI om ‘pijn’ te voelen en zichzelf te repareren

Robotica

Robots gebruiken AI om ‘pijn’ te voelen en zichzelf te repareren

mm

Robots zijn een stap dichter bij het zijn van levende wezens door een nieuwe ontwikkeling op het gebied. Wetenschappers van de Nanyang Technological University, Singapore (NTU Singapore) hebben een AI-systeem gecreëerd dat het mogelijk maakt voor robots om pijn te herkennen en zichzelf te repareren. 

Het nieuw ontwikkelde systeem is afhankelijk van AI-geactiveerde sensorknooppunten, die ‘pijn’ verwerken en vervolgens daarop reageren. Deze pijn wordt geïdentificeerd wanneer er druk wordt uitgeoefend door een buitenkracht. Het andere belangrijke onderdeel van het systeem is zelfreparatie. De robot kan de schade repareren wanneer het een kleine ‘blessure’ betreft, zonder dat het nodig is om terug te vallen op menselijke interventie.

Het onderzoek werd in augustus gepubliceerd in het tijdschrift Nature Communications.

De meeste robots in de wereld ontvangen informatie over hun directe omgeving via een netwerk van sensoren. Deze sensoren verwerken echter geen informatie, maar sturen de informatie naar een centrale verwerkingseenheid. Deze centrale verwerkingseenheid is waar het leren plaatsvindt, en het betekent dat huidige robots veel draden nodig hebben. Dit systeem resulteert in langere responstijden. 

Naast langere responstijden zijn deze robots vaak gemakkelijk beschadigd en vereisen ze veel onderhoud en reparatie. 

Het nieuwe systeem

In het door de wetenschappers ontwikkelde systeem is de AI ingebed in het netwerk van sensorknooppunten. Er zijn meerdere kleinere en minder krachtige verwerkingseenheden, waar de sensorknooppunten aan zijn verbonden. Deze opstelling maakt het mogelijk om lokaal te leren, wat op zijn beurt de hoeveelheid draden en responstijd vermindert. Specifiek is het vijf tot tien keer sneller dan conventionele robots.

Het zelfreparatiesysteem komt voort uit de introductie van een zelfhelend ionengelmateriaal in het systeem. Dit maakt het mogelijk voor robots om mechanische functies te herstellen wanneer ze beschadigd zijn, zonder de hulp van mensen. 

Associate Professor Arindam Basu is co-hoofdauteur van de studie. Hij komt van de School of Electrical & Electronic Engineering. 

“Voor robots om ooit samen te werken met mensen, is een van de zorgen hoe we ervoor kunnen zorgen dat ze veilig met ons omgaan. Daarom hebben wetenschappers over de hele wereld manieren gezocht om een gevoel van bewustzijn aan robots te geven, zoals het ‘voelen’ van pijn, om daarop te reageren en om harde bedrijfsomstandigheden te doorstaan. Echter, de complexiteit van het samenstellen van de vele sensoren die nodig zijn en de resulterende kwetsbaarheid van een dergelijk systeem is een grote barrière voor brede toepassing.”

Volgens Basu, die ook een expert is in neuromorfische computing, “Ons werk heeft de haalbaarheid van een robotsysteem aangetoond dat in staat is om informatie efficiënt te verwerken met minimale bedrading en schakelingen. Door het aantal benodigde elektronische componenten te verminderen, moet ons systeem betaalbaar en schaalbaar worden. Dit zal helpen om de adoptie van een nieuwe generatie robots op de markt te versnellen.” 

De robot leren pijn te voelen

Om de robot te leren pijn te voelen, vertrouwden de onderzoekers op memtransistors, die als ‘hersengeïnspireerde’ elektronische apparaten fungeren. Deze apparaten kunnen geheugen en informatie verwerken, waardoor ze als kunstmatige pijnreceptoren en synapsen fungeren. 

De studie toonde aan hoe de robot kon blijven reageren op druk, zelfs nadat het beschadigd was. Na een ‘blessure’, zoals een snee, verliest de robot mechanische functie. Dat is wanneer het zelfhelende ionengel ingrijpt en de robot ‘geneest’, door het eigenlijk aan elkaar te naaien. 

Rohit Abraham John is de eerste auteur van de studie en onderzoeker aan de School of Materials Science & Engineering van NTU.

“De zelfhelende eigenschappen van deze nieuwe apparaten helpen het robotische systeem om zichzelf herhaaldelijk aan elkaar te naaien wanneer het ‘gewond’ is geraakt met een snee of krab, zelfs bij kamertemperatuur,” zegt John. “Dit imiteert hoe ons biologisch systeem werkt, net zoals de manier waarop menselijke huid vanzelf geneest na een snee.” 

“In onze tests kan onze robot ‘overleven’ en reageren op onopzettelijke mechanische schade als gevolg van kleine blessures zoals krassen en stoten, terwijl hij effectief blijft werken. Als een dergelijk systeem in de praktijk zou worden gebruikt, kan het bijdragen aan besparingen op onderhoud.”

Volgens associate professor Nripan Mathews, die co-hoofdauteur is van de School of Materials Science & Engineering van NTU, “Conventionele robots voeren taken uit in een gestructureerde, programmeerbare manier, maar de onze kunnen hun omgeving waarnemen, leren en hun gedrag dienovereenkomstig aanpassen. De meeste onderzoekers richten zich op het maken van steeds gevoeligere sensoren, maar niet op de uitdagingen van hoe ze effectief beslissingen kunnen nemen. Een dergelijk onderzoek is noodzakelijk voor de volgende generatie robots om effectief met mensen te communiceren.”

“In dit werk heeft ons team een benadering gekozen die afwijkt van de gebaande paden, door nieuwe leerstof, apparaten en fabricagemethoden toe te passen voor robots om menselijke neurobiologische functies na te bootsen. Hoewel het nog in de prototypefase zit, hebben onze bevindingen belangrijke kaders gelegd voor het veld, en wijzen ze de weg voorwaarts voor onderzoekers om deze uitdagingen aan te pakken.”

Het onderzoeksteam zal nu partners in de industrie en overheidsonderzoeksinstellingen benaderen om het systeem verder te ontwikkelen. 

Alex McFarland is een AI-journalist en schrijver die de laatste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met talloze AI-startups en publicaties wereldwijd.