Connect with us

Robotik

Forskere udvikler ramme til at give robotter sociale færdigheder

mm

Forskere på Massachusetts Institute of Technology (MIT) har udviklet en kontrolramme til at give robotter sociale færdigheder. Rammen giver maskinerne mulighed for at forstå, hvad det indebærer at hjælpe eller hindre hinanden, samt at lære at udføre sociale adfærd på egen hånd.

En robot observerer sin makker i en simuleret omgang før den gætter, hvilket formål den ønsker at opnå. Den hjælper eller hindrer herefter den anden robot afhængigt af sine egne mål.

Forskere har også demonstreret, at deres model skaber realistiske og forudsigelige sociale interaktioner. Når menneskelige seere blev vist videoer af de simulerede robotter, der interagerede med hinanden, var de enige med modellen om, hvilken social adfærd der var pågående.

Ved at give robotter sociale færdigheder kan vi opnå mere positive menneske-robot-interaktioner. Den nye model kan også give videnskabsmænd mulighed for at måle sociale interaktioner kvantitativt.

Boris Katz er principal research scientist og leder af InfoLab Group i Computer Science and Artificial Intelligence Laboratory (CSAIL) samt medlem af Center for Brains, Minds, and Machines (CBMM).

“Robotter kommer til at leve i vores verden snart, og de skal virkelig lære at kommunikere med os på menneskelige vilkår. De skal forstå, hvornår det er tid for dem at hjælpe, og hvornår det er tid for dem at se, hvad de kan gøre for at forhindre noget i at ske. Dette er meget tidligt arbejde, og vi har kun lige begyndt at skrabe overfladen, men jeg føler, at dette er det første alvorlige forsøg på at forstå, hvad det indebærer for mennesker og maskiner at interagere socialt,” siger Katz.

Forskningen omfattede også co-lead author Ravi Tejwani, en forskningsassistent på CSAIL; co-lead author Yen-Ling Kuo, en CSAIL-phd-student; Tianmin Shu, en postdoc i afdelingen for hjernen og kognitive videnskaber; og senior author Andrei Barbu, en forskningsvidenskabsmand på CSAIL.

Studier af sociale interaktioner

Forskere oprettede en simuleret omgang, hvor robotter forfølger fysiske og sociale mål, mens de navigerer rundt i en todimensionel grid, hvilket gjorde det muligt for holdet at studere sociale interaktioner.

Robotterne fik fysiske og sociale mål. Et fysisk mål relaterer til omgangen, mens et socialt mål kunne være noget i retning af, at en robot gætter, hvad en anden robot forsøger at gøre, før den baserer sine egne handlinger på den forudsigelse.

Modellen bruges til at specificere, hvad en robots fysiske mål er, hvad dens sociale mål er, og hvor meget vægt der skal lægges på det ene over for det andet. Hvis robotten udfører handlinger, der bringer den tættere på målet, belønnes den. Hvis robotten forsøger at hjælpe sin makker, justerer den sin belønning for at matche den anden. Hvis robotten forsøger at hindre den anden, justerer den sin belønning derefter. En algoritme beslutter, hvilke handlinger en robot skal udføre, og den bruger beløningssystemet til at guide den til at udføre fysiske og sociale mål.

“Vi har åbnet en ny matematisk ramme for, hvordan man modellerer sociale interaktioner mellem to agenter. Hvis du er en robot, og du vil gå til lokalitet X, og jeg er en anden robot, og jeg ser, at du forsøger at gå til lokalitet X, kan jeg samarbejde ved at hjælpe dig med at komme til lokalitet X hurtigere. Det kan betyde at flytte X tættere på dig, finde en anden bedre X eller udføre hvilken som helst handling, du havde til X. Vores formulering giver mulighed for, at planen kan opdage ‘hvordan’; vi specificerer ‘hvad’ i forhold til, hvad sociale interaktioner betyder matematisk,” siger Tejwani.

Forskere bruger den matematiske ramme til at definere tre typer robotter. En niveau 0-robot har kun fysiske mål, mens en niveau 1-robot har både fysiske og sociale mål, men antager, at alle andre kun har fysiske mål. Dette betyder, at niveau 1-robotter udfører handlinger baseret på de fysiske mål for andre, såsom hjælp eller hindring. En niveau 2-robot antager, at andre har sociale og fysiske mål, og disse robotter kan udføre mere sofistikerede handlinger.

Test af modellen

Forskere fandt ud af, at deres model var enig med, hvad mennesker mente om de sociale interaktioner, der var pågående i hver ramme.

“Vi har en langsigtede interesse, både til at bygge computational modeller for robotter, men også til at grave dybere i de menneskelige aspekter af dette. Vi vil gerne opdage, hvilke funktioner fra disse videoer mennesker bruger til at forstå sociale interaktioner. Kan vi oprette en objektiv test for din evne til at genkende sociale interaktioner? Måske er der en måde at undervise mennesker i at genkende disse sociale interaktioner og forbedre deres evner. Vi er langt fra dette, men selv blot at kunne måle sociale interaktioner effektivt er et stort skridt fremad,” siger Barbu.

Holdet arbejder nu på at udvikle et system med 3D-agenter i en omgang, der giver mulighed for mere typer af interaktioner. De vil også gerne ændre modellen til at omfatte omgange, hvor handlinger kan fejle, og de planlægger at inkorporere en neural network-baseret robot-planlægger i modellen. Til sidst vil de gerne udføre et eksperiment for at indsamle data om de funktioner, mennesker bruger til at bestemme, om to robotter er engageret i en social interaktion.

Alex McFarland er en AI-journalist og forfatter, der udforsker de seneste udviklinger inden for kunstig intelligens. Han har samarbejdet med talrige AI-startups og publikationer verden over.