Tekoäly
Google’n AI opettaa roboteille liikkumista katsomalla koiria

Jopa jotkut nykyajan edistyneimmistä robooteista liikkuvat edelleen jossain määrin kömpelösti ja epätasaisesti. Saadakseen robotit liikkumaan elävämmässä ja sulavammassa tavassa Google’n tutkijat ovat kehittäneet AI-järjestelmän, joka pystyy opimaan oikeiden eläinten liikkeistä. Google’n tutkimusryhmä julkaisi viime viikolla preprint-julkaisun, jossa he kuvailivat lähestymistapaansa. Tutkimusryhmän kirjoittajat uskovat, että roboteille luonnollisen liikkeen antaminen voisi auttaa niitä suorittamaan todellisen maailman tehtäviä, jotka vaativat tarkkaa liikettä, kuten esineiden toimittamista eri kerroksille rakennuksessa.
Kuten VentureBeat raportoi, tutkimusryhmä käytti vahvistusoppimista kouluttaakseen robotejaan. Tutkijat alkoivat keräämällä videoita oikeista eläimistä liikkeessä ja käyttämällä vahvistusoppimisen (RL) tekniikoita saadakseen robotit jäljittelemään eläinten liikkeitä videoklippejä. Tässä tapauksessa tutkijat kouluttivat robotit koiran videoista, jotka oli suunniteltu fysiikkasimulaattorissa, ja ohjasivat nelijalkaista Unitree Laikago-robottia jäljittelemään koiran liikkeitä. Kun robotti oli koulutettu, se pystyi suorittamaan monimutkaisia liikkeitä, kuten hyppimistä, kääntymistä ja nopeaa kävelyä nopeudella noin 2,6 mailia tunnissa.
Koulutusdata koostui noin 200 miljoonasta esimerkistä koirista liikkeessä, joita seurattiin fysiikkasimulaatiossa. Erilaiset liikkeet ajettiin palkinto- ja politiikkafunktioiden läpi, joita agentit oppivat. Kun politiikat oli luotu simulaatiossa, ne siirrettiin todelliseen maailmaan latenttisen tilan sovittamisen avulla. Koska fysiikkasimulaattorit, joita käytettiin robottien kouluttamiseen, voivat vain approksimoida tiettyjä todellisen maailman liikkeen aspekteja, tutkijat sovelsivat satunnaisesti erilaisia häiriöitä simulaatioon, joiden tarkoituksena oli simuloida toimintaa eri olosuhteissa.
Tutkimusryhmän mukaan he pystyivät sovittamaan simulaatiopolitiikat todellisiin roboteihin vain kahdeksan minuutin ajan keräämällä dataa 50 eri kokeesta. Tutkijat onnistuivat osoittamaan, että todelliset robotit pystyivät jäljittelemään monia erilaisia, tarkkoja liikkeitä, kuten ravia, kääntymistä, hyppimistä ja askeltamista. He pystyivät jopa jäljittelemään animaatioita, jotka animaatioartistit olivat luoneet, kuten yhdistelmähypin ja käännön.
Tutkijat tiivistävät tuloksensa julkaisussa:
”Osoitamme, että viittaamalla liikemalleihin yksi oppimisperustainen lähestymistapa pystyy automaattisesti syntetisoimaan ohjaimia monimuotoiselle joukolle käyttäytymismalleja jalkaisille roboteille. Sisällyttämällä näytevirkaisten domain-sovittamisen menetelmiä koulutusprosessiin, järjestelmämme pystyy oppimaan sopeutuvia politiikkoja simulaatiossa, jotka voidaan sitten nopeasti sovittaa todelliseen maailmaan.”
Ohjauspolitiikat, joita käytettiin vahvistusoppimisprosessissa, olivat rajoittuneita. Laitteiston ja algoritmien asettamien rajoitusten vuoksi roboteilla oli joitain asioita, joita ne eivät voineet tehdä. Ne eivät esimerkiksi voineet juosta tai tehdä suuria hyppyjä. Opitut politiikat eivät myöskään olleet yhtä vakaat kuin manuaalisesti suunnitellut liikkeet. Tutkimusryhmä haluaa viedä työtä eteenpäin tekemällä ohjaimet kestävämmiksi ja kykeneviksi oppimaan erilaisista tietoja. Ihannetapauksessa tulevaisuuden versioista kehyksestä voidaan oppia videodatasta.












