Inteligență artificială
Inteligența artificială a Google învață roboții să se miște prin observarea câinilor

Chiar și unii dintre roboții cei mai avansați de astăzi se mișcă încă în moduri ceva împiedicați, sacadate. Pentru a face roboții să se miște în moduri mai naturale, mai fluide, cercetătorii de la Google au dezvoltat un sistem de inteligență artificială capabil de a învăța din mișcările unor animale reale. Echipa de cercetare a Google a publicat o lucrare preprintată care a detaliat abordarea lor la sfârșitul săptămânii trecute. În lucrare și într-o postare pe blog însoțitoare, echipa de cercetare descrie rațiunea din spatele sistemului. Autorii lucrării cred că înzestrarea roboților cu mișcări mai naturale ar putea ajuta la îndeplinirea unor sarcini din lumea reală care necesită mișcări precise, cum ar fi livrarea de obiecte între diferite niveluri ale unei clădiri.
După cum a raportat VentureBeat, echipa de cercetare a utilizat învățarea prin întărire pentru a antrena roboții. Cercetătorii au început prin colectarea de clipe cu animale reale în mișcare și utilizarea tehnicilor de învățare prin întărire (RL) pentru a împinge roboții spre imitarea mișcărilor animalelor din clipurile video. În acest caz, cercetătorii au antrenat roboții pe clipe cu un câine, proiectat într-un simulator de fizică, instruind un robot cu patru picioare Unitree Laikago să imite mișcările câinelui. După ce robotul a fost antrenat, a fost capabil să realizeze mișcări complexe, cum ar fi sărituri, rotiri și mers rapid, la o viteză de aproximativ 2,6 mile pe oră.
Datele de antrenament au constat din aproximativ 200 de milioane de mostre de câini în mișcare, urmăriți într-un simulator de fizică. Diferitele mișcări au fost apoi rulate prin funcții de recompensă și politici pe care agenții le-au învățat. După ce politicile au fost create în simulator, acestea au fost transferate în lumea reală utilizând o tehnică numită adaptare a spațiului latent. Deoarece simulatorii de fizică utilizați pentru antrenarea roboților nu au putut aproxima anumite aspecte ale mișcării din lumea reală, cercetătorii au aplicat aleatoriu diverse perturbații simulatorului, menite să simuleze funcționarea în diferite condiții.
Conform echipei de cercetare, au reușit să adapteze politicile de simulator la roboții din lumea reală utilizând doar opt minute de date colectate din 50 de încercări diferite. Cercetătorii au reușit să demonstreze că roboții din lumea reală au fost capabili să imite o varietate de mișcări specifice, cum ar fi trap, rotire, sărituri și mers. Au fost chiar capabili să imite animații create de artiști de animație, cum ar fi o combinație de sărituri și rotiri.
Cercetătorii rezumă descoperirile în lucrare:
„Arătăm că, prin utilizarea datelor de mișcare de referință, o abordare bazată pe învățare poate sintetiza în mod automat controlori pentru o gamă diversă de comportamente pentru roboți cu picioare. Prin incorporarea tehnicilor de adaptare a domeniului eficiente din punct de vedere al eşantioanelor în procesul de antrenament, sistemul nostru este capabil să învețe politici adaptabile în simulator care pot fi apoi adaptate rapid pentru implementare în lumea reală.”
Politicile de control utilizate în timpul procesului de învățare prin întărire au avut limitele lor. Din cauza constrângerilor impuse de hardware și algoritmi, au existat câteva lucruri pe care roboții pur și simplu nu le-au putut face. De exemplu, nu au putut alerga sau face sărituri mari. Politicile învățate nu au prezentat o stabilitate atât de mare în comparație cu mișcările proiectate manual. Echipa de cercetare dorește să ducă lucrarea mai departe prin făcerea controlorilor mai robusti și capabili să învețe din diferite tipuri de date. În mod ideal, versiunile viitoare ale cadrului vor fi capabile să învețe din date video.












