Connect with us

Robotik

Forskere skaber robot, der viser basal empathi over for en robotpartner

mm

En ny studie lykkedes i at udstyre en robot med en rudimentær form for empathi, der gjorde det muligt for robotten at forudsige dens robotpartners mål og handlinger.

Et hold af ingeniører fra Columbia Universitys School of Engineering and Applied Science designede en robot, der kan forudsige handlinger og mål for en partner-robot baseret på få billeder fra en video. Ingeniørerne argumenterer for, at robotten og dens AI viser en primitiv form for empathi, og at fremtidig forskning på dette område kunne hjælpe med at give robotter en “teori om sind”.

Den nyeste studie blev ledet af professor Hod Lipson fra Columbia Engineerings Creative Machines Lab. Forskningen, der er udført af Lipson og hans hold, er kun en del af en bredere akademisk bestræbelse på at enable robotter til at forstå og forudsige mål for andre robotter og potentielt mennesker. Denne forudsigelse skal udføres helt gennem analyse af data indsamlet af sensorer, primært visuel data.

Robot observerer robot

Holdet af forskere konstruerede en robot til at operere inden for en legeplads på ca. 6 kvadratfod. Robotten var programmeret til at lede efter grønne cirkler og bevæge sig mod disse grønne cirkler, men ikke alle de grønne cirkler inden for legepladsen var synlige for robotten. Nogle af de grønne cirkler var lette at se fra robottons startposition, men andre cirkler var skjult bag en stor kartonæske.

En anden robot var programmeret til at observere den første robot, og iagttog robotten i legepladsen i ca. to timer. Efter at have observeret partner-robotten, kunne observerings-robotten forudsige både mål og baner for sin partner det meste af tiden. Observerings-robotten kunne korrekt forudsige banen, som den anden robot tog, med 98% nøjagtighed, selv om observerings-robotten ikke var bekendt med den udforskende robottons manglende evne til at se bag kartonæsken.

En af hovedforfatterne på studiet, Boyuan Chen, forklarede via ScienceDaily, at resultaterne af studiet demonstrerer robotters evne til at fortolke verden fra en anden robots synspunkt.

“Evnen til, at observeren kan sætte sig i sin partners sko, så at sige, og forstå, uden at blive vejledt, om sin partner kan eller ikke kan se den grønne cirkel fra sin synsvinkel, er måske en primitiv form for empathi,” forklarede Chen.

Forskningsholdet forventede, at observerings-robotten kunne forudsige den udforskende robottons korte handlinger, men hvad de fandt, var, at observerings-robotten ikke kun kunne forudsige korte handlinger, men også kunne forudsige længerevarende handlinger baseret på kun få billeder fra en video.

“Teori om sind”

Det er tydeligt, at de adfærdsmønstre, som den udforskende robot viser, er enklere end mange af de handlinger, som mennesker udfører, og derfor er forudsigelse af menneskers mål og adfærd langt væk. Forskerne argumenterer dog for, at det, der er fælles mellem at forudsige en robots handlinger og et menneskes handlinger, er at anvende en “teori om sind”. Psykologisk forskning viser, at mennesker begynder at udvikle en teori om sind omkring tre års alderen. En teori om sind er nødvendig for samarbejde, empathi og bedrag. Forskningsholdet håber, at yderligere forskning i den teknologi, der driver interaktionerne mellem deres robotter, kan hjælpe videnskabsmænd med at udvikle endnu mere avancerede robotter.

Som nævnt, mens empathi typisk henvises til som en positiv egenskab, der muliggør samarbejde, er det også nødvendigt for mere negative handlinger som bedrag. For at lykkes med at bedrage nogen, skal man forstå deres ønsker og intentioner. Dette åbner op for nogle etiske spørgsmål, da robotter, der kan bedrage mennesker, kan blive anvendt af dårlige aktører til at manipulere og udnytte mennesker.

Selv om observerings-robotten kun var trænet på billeddata, mener Lipson, at en lignende prædictiv system i princippet kunne være designet baseret på menneskesprog, idet mennesker ofte forestiller sig ting i deres sindsbillede, tænker visuelt.

Colombia-forskningsholdets indsats er en del af en større bestræbelse på at udstyre AI med en teori om sind og empathi. Euan Matthews, direktør for AI og innovation i Contact Engine, argumenterede nylig, at for at AI’er skal blive mere empatisk, skal de kunne overveje multiple intentioner, ikke kun en. Mennesker har ofte multiple intentioner, undertiden modstridende ønsker og følelser om et emne, og AI’er skal blive mere fleksible, når de har med menneskelig intention at gøre.

Blogger og programmør med specialer i Machine Learning og Deep Learning emner. Daniel håber at hjælpe andre med at bruge AI's kraft til sociale formål.