Connect with us

Robotica

Onderzoekers creëren robot die basisempathie toont aan een robotpartner

mm

Een recente studie slaagde erin een robot te voorzien van een rudimentaire vorm van empathie, waardoor de robot de doelen en acties van zijn robotpartner kon voorspellen.

Een team van ingenieurs van de Columbia University’s School of Engineering and Applied Science ontwierp een robot die met succes de acties en doelen van een partnerrobot kon voorspellen op basis van een paar frames van een video. De ingenieurs beweren dat de robot en zijn AI een primitieve vorm van empathie vertonen en dat toekomstig onderzoek op dit gebied robots een “theorie van de geest” kan geven.

De recente studie werd geleid door professor Hod Lipson van Columbia Engineering’s Creative Machines Lab. Het onderzoek dat werd uitgevoerd door Lipson en zijn team is slechts een onderdeel van een bredere academische onderneming om robots in staat te stellen de doelen van andere robots, en mogelijk mensen, te begrijpen en te voorspellen. Deze voorspelling moet geheel worden gedaan door middel van de analyse van gegevens verzameld door sensoren, primair visuele gegevens.

Robot die een andere robot observeert

Het team van onderzoekers bouwde een robot die binnen een speelpen van ongeveer 6 vierkante voet kon opereren. De robot werd geprogrammeerd om naar groene cirkels te zoeken en ernaartoe te bewegen, maar niet alle groene cirkels binnen de speelpen waren zichtbaar voor de robot. Sommige van de doelgroene cirkels waren gemakkelijk te zien vanaf de startpositie van de robot, maar andere cirkels waren verborgen achter een grote kartonnen doos.

Een tweede robot werd geprogrammeerd om de eerste robot te observeren, waarbij de robot in de pen ongeveer twee uur werd geobserveerd. Na het observeren van zijn partnerrobot, kon de observerende robot zowel het doel als de paden van zijn partner het grootste deel van de tijd voorspellen. De observerende robot kon het pad dat werd genomen door de andere robot met 98% nauwkeurigheid correct voorspellen, zelfs als de observerende robot zich niet bewust was van de beperkingen van de verkennende robot om achter de doos te zien.

Een van de hoofdauteurs van de studie, Boyuan Chen, legde via ScienceDaily uit dat de resultaten van de studie de mogelijkheid van robots aantonen om de wereld vanuit het perspectief van een andere robot te interpreteren.

“De mogelijkheid van de observer om zichzelf in de schoenen van zijn partner te plaatsen, zogezegd, en te begrijpen, zonder te worden geleid, of zijn partner al dan niet de groene cirkel vanuit zijn standpunt kon zien, is misschien een primitieve vorm van empathie,” legde Chen uit.

Het onderzoeksteam verwachtte dat de observerrobot de korte-termijnacties van de verkennende robot kon voorspellen, maar wat ze vonden was dat de observerrobot niet alleen in staat was om korte-termijnacties te voorspellen, maar ook langere-termijnacties op basis van slechts een paar frames van een video.

“Theorie van de geest”

Het is duidelijk dat de gedragingen die worden vertoond door de verkennende robot eenvoudiger zijn dan veel acties die door mensen worden uitgevoerd, en dat het voorspellen van de doelen en gedragingen van mensen nog ver weg is. Het onderzoeksteam beweert echter dat wat gemeenschappelijk is tussen het voorspellen van de acties van een mens en de acties van een robot, is het gebruik van een “theorie van de geest”. Psychologisch onderzoek suggereert dat mensen rond de leeftijd van drie een theorie van de geest beginnen te ontwikkelen. Een theorie van de geest is noodzakelijk voor samenwerking, empathie en bedrog. Het onderzoeksteam hoopt dat verder onderzoek naar de technologie die de interacties tussen hun robots aandrijft, zal helpen om nog geavanceerdere robots te ontwikkelen.

Zoals vermeld, wordt empathie meestal beschouwd als een positieve eigenschap die samenwerking mogelijk maakt, maar het is ook nodig voor meer negatieve acties zoals bedrog. Om iemand succesvol te bedriegen, moet je zijn verlangens en intenties begrijpen. Dit roept enkele ethische vragen op, aangezien robots eenmaal in staat zijn om mensen te bedriegen, wat voorkomt dat ze worden gebruikt door slechte actoren om mensen te manipuleren en af te persen?

Terwijl de observerende robot uitsluitend werd getraind op beeldgegevens, gelooft Lipson dat in principe een soortgelijk predictiesysteem kan worden ontworpen op basis van menselijke taal, waarbij mensen vaak dingen in hun geestesoog voorstellen, visueel denken.

De inspanningen van het Colombia-onderzoeksteam zijn onderdeel van een bredere poging om AI te voorzien van een theorie van de geest en empathie. Euan Matthews, directeur van AI en innovatie bij Contact Engine, betoogde onlangs dat AI’s om empathischer te worden, in staat moeten zijn om meerdere intenties te overwegen, niet alleen één. Mensen hebben vaak meerdere intenties, soms conflicterende verlangens en gevoelens over een onderwerp, en AI’s moeten flexibeler worden bij het omgaan met menselijke intenties.

Blogger en programmeur met specialisaties in Machine Learning en Deep Learning onderwerpen. Daniel hoopt anderen te helpen de kracht van AI te gebruiken voor het sociale goede.