Robotik
Ein neuer Aufbruch in der Robotik: Berührungsbasierte Objektrotation

In einer bahnbrechenden Entwicklung hat ein Ingenieurteam der University of California San Diego (UCSD) eine Roboterhand entworfen, die Objekte allein durch Berührung drehen kann, ohne dass eine visuelle Eingabe erforderlich ist. Das innovativer Ansatz wurde von der mühelosen Art und Weise inspiriert, wie Menschen mit Objekten umgehen, ohne sie unbedingt sehen zu müssen.
Ein berührungsempfindlicher Ansatz zur Objektmanipulation
Das Team stattete eine vierfingrige Roboterhand mit 16 Berührungssensoren aus, die über die Handfläche und die Finger verteilt waren. Jeder etwa 12 US-Dollar teure Sensor erfüllt eine einfache Funktion: Er erkennt, ob ein Objekt ihn berührt oder nicht. Dieser Ansatz ist einzigartig, da er auf zahlreichen kostengünstigen Berührungssensoren mit niedriger Auflösung basiert, die einfache binäre Signale – Berührung oder keine Berührung – verwenden, um eine Roboterrotation in der Hand durchzuführen.
Im Gegensatz dazu basieren andere Methoden auf einigen wenigen teuren, hochauflösenden Berührungssensoren, die an einem kleinen Bereich der Roboterhand, hauptsächlich an den Fingerspitzen, angebracht werden. Xiaolong Wang, Professor für Elektro- und Computertechnik an der UC San Diego, der die Studie leitete, erklärte, dass diese Ansätze mehrere Einschränkungen haben. Sie minimieren die Wahrscheinlichkeit, dass die Sensoren mit dem Objekt in Kontakt kommen, wodurch die Erfassungsfähigkeit des Systems eingeschränkt wird. Hochauflösende Berührungssensoren, die Informationen über die Textur liefern, sind äußerst schwierig zu simulieren und unerschwinglich teuer, was ihren Einsatz in realen Experimenten schwierig macht.
Die Kraft binärer Signale
„Wir zeigen, dass wir für diese Aufgabe keine Details über die Textur eines Objekts benötigen. Wir benötigen lediglich einfache binäre Signale darüber, ob die Sensoren das Objekt berührt haben oder nicht, und diese lassen sich viel einfacher simulieren und in die reale Welt übertragen“, sagte Wang.
Das Team trainierte sein System mithilfe von Simulationen einer virtuellen Roboterhand, die eine Vielzahl von Objekten drehte, darunter auch solche mit unregelmäßigen Formen. Das System ermittelt, welche Sensoren an der Hand zu einem bestimmten Zeitpunkt während der Drehung vom Objekt berührt werden. Außerdem werden die aktuellen Positionen der Handgelenke sowie deren frühere Aktionen beurteilt. Anhand dieser Informationen weist das System die Roboterhand an, welches Gelenk zum nächsten Zeitpunkt wohin gehen muss.
Die Zukunft der Robotermanipulation
Die Forscher testeten ihr System an der realen Roboterhand mit Objekten, denen das System noch nicht begegnet ist. Die Roboterhand war in der Lage, eine Vielzahl von Objekten zu drehen, ohne ins Stocken zu geraten oder ihren Halt zu verlieren. Zu den Objekten gehörten eine Tomate, eine Paprika, eine Dose Erdnussbutter und eine Spielzeug-Quietschente, die aufgrund ihrer Form das herausforderndste Objekt darstellte. Objekte mit komplexeren Formen brauchten länger zum Drehen. Die Roboterhand könnte auch Objekte um verschiedene Achsen drehen.
Das Team arbeitet nun daran, seinen Ansatz auf komplexere Manipulationsaufgaben auszudehnen. Sie entwickeln derzeit Techniken, um Roboterhänden beispielsweise das Fangen, Werfen und Jonglieren zu ermöglichen. „Handmanipulation ist eine sehr verbreitete Fähigkeit, die wir Menschen besitzen, aber für Roboter ist es sehr komplex, sie zu beherrschen“, sagte Wang. „Wenn wir Robotern diese Fähigkeit verleihen können, öffnet uns das die Tür zu den Aufgaben, die sie ausführen können.“
Diese Entwicklung stellt einen bedeutenden Fortschritt auf dem Gebiet der Robotik dar und ebnet möglicherweise den Weg für Roboter, die Objekte im Dunkeln oder in optisch anspruchsvollen Umgebungen manipulieren können.












