Robotik
Roboter mit Gefühl: Wie Tactile AI die menschlich-robotische Beziehung verändern könnte
Bewusste Roboter sind seit Jahrzehnten ein fester Bestandteil der Science-Fiction, was verlockende ethische Fragen aufwirft und das Licht auf die technischen Barrieren der Schaffung künstlichen Bewusstseins wirft. Viel von dem, was die Tech-Welt heute in künstlicher Intelligenz (KI) erreicht hat, ist den jüngsten Fortschritten im Deep Learning zu verdanken, das es Maschinen ermöglicht, automatisch während der Ausbildung zu lernen.
Dieser Durchbruch eliminiert die Notwendigkeit für mühsame, manuelle Feature-Engineering – ein wichtiger Grund, warum Deep Learning als transformative Kraft in KI und Tech-Innovation hervorsticht.
Aufbauend auf diesem Momentum ist Meta – das Facebook, WhatsApp und Instagram besitzt – in ein neues, mutiges Gebiet mit fortschrittlichen “Tactile AI”-Technologien vorgedrungen. Das Unternehmen hat kürzlich drei neue KI-gesteuerte Tools – Sparsh, Digit 360 und Digit Plexus – vorgestellt, die darauf ausgelegt sind, Robotern eine Form der Taktsensibilität zu verleihen, die der menschlichen Wahrnehmung nahe kommt.
Das Ziel? Roboter zu schaffen, die nicht nur Aufgaben nachahmen, sondern aktiv mit ihrer Umgebung interagieren, ähnlich wie Menschen mit der Welt interagieren.
Sparsh, passend nach dem sanskrit-Wort für “Berührung” benannt, ist ein allgemeiner agenter KI-Modell, das es Robotern ermöglicht, sensorische Signale in Echtzeit zu interpretieren und zu reagieren. Ebenso ist der Digit 360-Sensor ein künstlicher Fingertipp für Roboter, der helfen kann, Berührung und physische Empfindungen so fein wie ein Nadelstich oder Druckänderungen wahrzunehmen. Der Digit Plexus wird als Brücke fungieren und einen standardisierten Rahmen für die Integration taktiler Sensoren in verschiedenen Roboterdesigns bereitstellen, um es einfacher zu machen, Berührungsdaten zu erfassen und zu analysieren. Meta glaubt, dass diese KI-gesteuerten Tools es Robotern ermöglichen werden, komplexe Aufgaben zu bewältigen, die einen “menschlichen” Touch erfordern, insbesondere in Bereichen wie der Gesundheitsversorgung, wo Sensibilität und Präzision von größter Bedeutung sind.
Die Einführung von sensorischen Robotern wirft jedoch größere Fragen auf: Könnte diese Technologie neue Levels der Zusammenarbeit ermöglichen oder wird sie Komplexitäten einführen, die die Gesellschaft möglicherweise nicht bewältigen kann?
“Wenn Roboter neue Sinne entdecken und einen hohen Grad an Intelligenz und Autonomie gewinnen, müssen wir beginnen, ihre Rolle in der Gesellschaft zu berücksichtigen”, Ali Ahmed, Mitbegründer und CEO von Robomart, sagte mir. “Metas Bemühungen sind ein wichtiger erster Schritt, um ihnen menschliche Sinne zu verleihen. Wenn Menschen zunehmend intim mit Robotern werden, werden sie beginnen, sie als Lebenspartner, Begleiter und sogar als Partner zu behandeln, mit denen sie ihr Leben aufbauen.”
Ein Rahmen für menschlich-robotische Harmonie, die Zukunft?
Neben den Fortschritten im Tactile AI hat Meta auch den PARTNR-Benchmark vorgestellt, einen standardisierten Rahmen für die Bewertung der menschlich-robotischen Zusammenarbeit im großen Maßstab. Dieser soll Interaktionen testen, die Planung, Argumentation und kooperative Ausführung erfordern und es Robotern ermöglichen, sowohl strukturierte als auch unstrukturierte Umgebungen neben Menschen zu navigieren. Durch die Integration großer Sprachmodelle (LLM), um diese Interaktionen zu leiten, kann PARTNR Roboter auf kritische Elemente wie Koordination und Aufgabenverfolgung bewerten und sie von bloßen “Agenten” zu echten “Partnern” machen, die flüssig mit menschlichen Partnern zusammenarbeiten können.
“Das aktuelle Papier ist sehr begrenzt für die Bewertung und auch in der Natural Language Processing (NLP) hat es eine erhebliche Zeit gedauert, bis LLMs für die reale Welt perfektioniert wurden. Es wird eine enorme Übung sein, dies für die 8,2 Milliarden Menschen mit einer begrenzten Laborumgebung zu generalisieren”, Ram Palaniappan, CTO von TEKsystems, sagte mir. “Es wird einen größeren, dedizierten Aufwand erfordern, um diese Forschungsarbeit zu einem funktionierenden Pilotprojekt zu bringen.”
Um diese Fortschritte im Tactile AI auf den Markt zu bringen, hat Meta sich mit GelSight Inc. und Wonik Robotics zusammengeschlossen. GelSight wird für die Produktion des Digit 360-Sensors verantwortlich sein, der für das nächste Jahr geplant ist und der Forschungsgemeinschaft Zugang zu fortschrittlichen taktilen Fähigkeiten bieten wird. Wonik Robotics wird hingegen für die Produktion der nächsten Generation des Allegro-Handes verantwortlich sein, der den Digit Plexus integriert, um es Robotern zu ermöglichen, komplexe, berührungssensitive Aufgaben mit einer neuen Präzision auszuführen. Doch nicht jeder ist davon überzeugt, dass diese Fortschritte in die richtige Richtung gehen.
“Obwohl ich immer noch glaube, dass das Hinzufügen von Sensing-Fähigkeiten für Roboter sinnvoll sein kann, um die Umgebung zu verstehen, glaube ich, dass die aktuellen Anwendungsfälle mehr mit Robotern für Massenverbraucher und der Verbesserung ihrer Interaktion zu tun haben”, Agustin Huerta, SVP of Digital Innovation for North America at Globant, sagte mir. “Ich glaube nicht, dass wir nahe daran sind, ihnen menschliche Empfindungen zu verleihen, noch dass es notwendig ist. Es wird eher als zusätzlicher Datenpunkt für einen Entscheidungsprozess dienen.”
Metas Entwicklungen im Tactile AI spiegeln einen breiteren Trend in Europa wider, wo Länder wie Deutschland, Frankreich und das Vereinigte Königreich die Grenzen der robotischen Wahrnehmung und des Bewusstseins erweitern. Zum Beispiel unterstützt das EU-Programm Horizon 2020 eine Reihe von Projekten, die darauf abzielen, die Grenzen der Robotik zu erweitern, von taktiler Wahrnehmung und Umweltbewusstsein bis hin zu Entscheidungskapazitäten. Darüber hinaus hat das Karlsruher Institut für Technologie in Deutschland kürzlich den ARMAR-6-Roboter vorgestellt, der für industrielle Umgebungen konzipiert ist. ARMAR-6 ist in der Lage, Werkzeuge wie Bohrer und Hämmer zu verwenden und verfügt über KI-Fähigkeiten, die es ihm ermöglichen, zu lernen, Objekte zu greifen und menschliche Kollegen zu unterstützen.
Doch Dr. Peter Gorm Larsen, stellvertretender Leiter der Abteilung für Elektrotechnik und Informatik an der Aarhus-Universität in Dänemark und Koordinator des EU-geförderten RoboSAPIENS-Projekts, warnt davor, dass Meta möglicherweise eine wichtige Herausforderung übersehen hat: die Lücke zwischen virtuellen Wahrnehmungen und der physischen Realität, in der autonome Roboter operieren, insbesondere im Hinblick auf Umwelt- und menschliche Sicherheit.
“Roboter haben keine Intelligenz auf die gleiche Weise wie lebende Wesen”, sagte er mir. “Technologieunternehmen haben eine moralische Verpflichtung, sicherzustellen, dass ihre Produkte ethische Grenzen respektieren. Persönlich bin ich am meisten besorgt über die potenzielle Konvergenz solcher fortschrittlicher taktiler Rückkopplung mit 3D-Brillen, die so kompakt sind wie reguläre Brillen.”
Sind wir bereit für Roboter, die “fühlen”?
Dr. Larsen glaubt, dass die eigentliche Herausforderung nicht die taktilen AI-Sensoren selbst sind, sondern vielmehr, wie sie in autonomen Umgebungen eingesetzt werden. “In der EU beschränkt die Maschinenrichtlinie derzeit die Verwendung von AI-gesteuerten Kontrollen in Robotern. Aber in meiner Meinung ist das eine zu strenge Anforderung, und wir hoffen, in dem RoboSAPIENS-Projekt, das ich derzeit koordiniere, zu demonstrieren, dass dies nicht der Fall ist.”
Natürlich arbeiten Roboter bereits in verschiedenen Branchen auf der ganzen Welt mit Menschen zusammen. Zum Beispiel hat Kiwibot geholfen, Logistikunternehmen bei der Bewältigung von Arbeitskräftemangel in Lagerhäusern zu unterstützen, und das Schweizer Unternehmen Anybotics hat kürzlich 60 Millionen Dollar aufgebracht, um mehr industrielle Roboter in die USA zu bringen, laut TechCrunch. Wir sollten erwarten, dass künstliche Intelligenz weiterhin in Branchen eindringt, da “KI die Produktivität in wiederholbaren Aufgaben wie Code-Refactoring beschleunigt, Tech-Schulden angeht und transformiert, wie globale Teams zusammenarbeiten und innovieren”, Vikas Basra, Global Head, Intelligent Engineering Practice, Ness Digital Engineering, sagte.
Gleichzeitig ist die Sicherheit dieser Roboter – jetzt sowie in ihrer potenziell “bewussten” Zukunft – die Hauptsorge, um den Fortschritt der Branche zu gewährleisten.
Sagte Matan Libis, VP of Product at SQream, einem Unternehmen für fortschrittliche Datenverarbeitung, in The Observer, “Die nächste große Mission für Unternehmen wird es sein, den Platz von KI in der Gesellschaft zu etablieren – ihre Rollen und Verantwortlichkeiten … Wir müssen klar über ihre Grenzen sein und wo sie wirklich hilft. Wenn wir die Grenzen von KI nicht identifizieren, werden wir wachsende Bedenken hinsichtlich ihrer Integration in das tägliche Leben haben.”
Wenn KI sich zu taktiler Wahrnehmung entwickelt, wirft es die Frage auf, ob die Gesellschaft bereit ist für Roboter, die “fühlen”. Experten argumentieren, dass reine softwarebasierte Superintelligenz möglicherweise an eine Grenze stoßen wird; um eine wahre, fortgeschrittene Verständnis zu erreichen, muss KI in unserer physischen Umgebung wahrnehmen, verstehen und handeln, Modaliitäten für ein tieferes Verständnis der Welt verbinden – etwas, wozu Roboter einzigartig geeignet sind. Doch Superintelligenz allein entspricht nicht notwendigerweise Bewusstsein. “Wir dürfen ein Werkzeug nicht derart anthropomorphisieren, dass wir es mit einem bewussten Wesen assoziieren, wenn es nicht bewiesen hat, dass es bewusst ist”, erklärte Ahmed. “Wenn jedoch ein Roboter den Test für Bewusstsein besteht, sollten wir ihn als lebendes, bewusstes Wesen anerkennen und ihm dann die moralische und grundlegende Verantwortung geben, ihm bestimmte Freiheiten und Rechte als bewusstes Wesen zu gewähren.”
Die Auswirkungen von Metas Tactile AI sind erheblich, aber ob diese Technologien zu revolutionären Veränderungen führen oder ethische Grenzen überschreiten, bleibt ungewiss. Für den Moment bleibt die Gesellschaft mit der Frage zurück, ob eine Zukunft, in der KI nicht nur sieht und hört, sondern auch berührt, unsere Beziehung zu Maschinen auf Arten verändern wird, die wir gerade erst beginnen zu verstehen.
“Ich denke nicht, dass die Erhöhung der Sensing-Fähigkeiten von KI ethische Grenzen überschreitet. Es hat mehr mit der Art und Weise zu tun, wie diese Sensing später für Entscheidungen oder zur Steuerung von Entscheidungen anderer verwendet wird”, sagte Huerta. “Die Roboter-Revolution wird nicht anders sein als die industrielle Revolution. Sie wird unser Leben beeinflussen und uns in einem Zustand lassen, den ich glaube, dass die Menschheit gedeihen lassen kann. Damit dies geschehen kann, müssen wir beginnen, uns und die kommenden Generationen darüber aufzuklären, wie man eine gesunde Beziehung zwischen Menschen und Robotern fördert.”










