Künstliche Intelligenz
Google’s KI lehrt Roboter, sich zu bewegen, indem sie Hunde beobachtet

Selbst einige der fortschrittlichsten Roboter von heute bewegen sich noch auf somewhat holprige, ruckartige Weise. Um Roboter dazu zu bringen, sich auf mehr lebensnahe, flüssige Weise zu bewegen, haben Forscher bei Google ein KI-System entwickelt, das in der Lage ist, von den Bewegungen realer Tiere zu lernen. Das Google-Forschungsteam veröffentlichte eine Preprint-Studie, in der ihr Ansatz detailliert beschrieben wird, Anfang der letzten Woche. In der Studie und einem begleitenden Blog-Beitrag beschreibt das Forschungsteam die zugrunde liegende Logik des Systems. Die Autoren der Studie sind der Meinung, dass die Ausstattung von Robotern mit natürlicheren Bewegungen dazu beitragen könnte, sie bei realen Aufgaben zu unterstützen, die präzise Bewegungen erfordern, wie zum Beispiel das Transportieren von Gegenständen zwischen verschiedenen Ebenen eines Gebäudes.
Wie VentureBeat berichtete, nutzte das Forschungsteam Verstärkendes Lernen, um ihre Roboter zu trainieren. Die Forscher begannen damit, Clips von realen Tieren in Bewegung zu sammeln und Verstärkendes Lernen (RL) zu verwenden, um die Roboter dazu zu bringen, die Bewegungen der Tiere in den Video-Clips nachzuahmen. In diesem Fall trainierten die Forscher die Roboter mit Clips von einem Hund, der in einem Physik-Simulator entworfen wurde, und wiesen einen vierbeinigen Unitree Laikago-Roboter an, die Bewegungen des Hundes nachzuahmen. Nachdem der Roboter trainiert worden war, war er in der Lage, komplexe Bewegungen wie Hüpfen, Drehen und schnelles Gehen mit einer Geschwindigkeit von etwa 2,6 Meilen pro Stunde auszuführen.
Die Trainingsdaten bestanden aus etwa 200 Millionen Proben von Hunden in Bewegung, die in einer Physik-Simulation nachverfolgt wurden. Die verschiedenen Bewegungen wurden dann durch Belohnungsfunktionen und Richtlinien geführt, die die Agenten erlernten. Nachdem die Richtlinien in der Simulation erstellt worden waren, wurden sie in die reale Welt übertragen, indem eine Technik namens latente Raum-Anpassung verwendet wurde. Da die Physik-Simulatoren, die zum Trainieren der Roboter verwendet wurden, nur bestimmte Aspekte der realen Bewegung approximieren konnten, wendeten die Forscher zufällig verschiedene Störungen in der Simulation an, um den Betrieb unter verschiedenen Bedingungen zu simulieren.
Laut dem Forschungsteam konnten sie die Simulationsrichtlinien auf die realen Roboter mithilfe von nur acht Minuten an Daten anpassen, die aus 50 verschiedenen Versuchen gesammelt wurden. Die Forscher konnten demonstrieren, dass die realen Roboter in der Lage waren, eine Vielzahl von verschiedenen, spezifischen Bewegungen wie Trab, Drehen, Hüpfen und Schreiten nachzuahmen. Sie konnten sogar Animationen nachahmen, die von Animationskünstlern erstellt wurden, wie zum Beispiel eine Kombination aus Hüpfen und Drehen.
Die Forscher fassen die Ergebnisse in der Studie wie folgt zusammen:
“Wir zeigen, dass durch die Nutzung von Referenzbewegungsdaten ein einzelner lernbasierter Ansatz in der Lage ist, automatisch Steuerungen für eine vielfältige Palette von Verhaltensweisen für vierbeinige Roboter zu synthetisieren. Durch die Integration von stichprobenEffizienten Domänenadaptationstechniken in den Trainingsprozess kann unser System lernfähige Richtlinien in der Simulation erlernen, die dann schnell für die reale Einsatzbereitschaft angepasst werden können.”
Die Steuerungsrichtlinien, die während des Verstärkenden Lernens verwendet wurden, hatten ihre Einschränkungen. Aufgrund der durch die Hardware und Algorithmen auferlegten Einschränkungen gab es einige Dinge, die die Roboter einfach nicht tun konnten. Sie konnten zum Beispiel nicht rennen oder große Sprünge machen. Die gelernten Richtlinien zeigten auch nicht so viel Stabilität im Vergleich zu Bewegungen, die manuell entworfen wurden. Das Forschungsteam möchte die Arbeit weiterführen, indem es die Steuerungen robuster und in der Lage macht, von verschiedenen Arten von Daten zu lernen. Idealmente werden zukünftige Versionen des Frameworks in der Lage sein, von Video-Daten zu lernen.












