Robotik
Roboter mit Gefühl: Wie taktile KI die Mensch-Roboter-Beziehung verändern könnte
Empfindungsfähige Roboter sind seit Jahrzehnten ein fester Bestandteil der Science-Fiction. Sie werfen spannende ethische Fragen auf und beleuchten die technischen Hürden bei der Schaffung künstlichen Bewusstseins. Viele der heutigen Errungenschaften der Technologiewelt im Bereich der künstlichen Intelligenz (KI) sind den jüngsten Fortschritten im Bereich des Deep Learning zu verdanken, das es Maschinen ermöglicht, während des Trainings automatisch zu lernen.
Dieser Durchbruch macht die mühsame, manuelle Funktionsentwicklung überflüssig – ein Hauptgrund dafür, warum Deep Learning eine herausragende transformative Kraft in der KI und bei technischen Innovationen darstellt.
Meta – dem Facebook, WhatsApp und Instagram gehören – betritt mit fortschrittlichen „taktilen KI“-Technologien Neuland. Das Unternehmen hat kürzlich drei neue KI-gestützte Tools vorgestellt:Sparsh, Digit 360 und Digit Plexus– entwickelt, um Robotern eine Form der Berührungsempfindlichkeit zu verleihen, die der menschlichen Wahrnehmung sehr nahe kommt.
Das Ziel? Roboter zu schaffen, die nicht nur Aufgaben nachahmen, sondern aktiv mit ihrer Umgebung interagieren, ähnlich wie Menschen mit der Welt interagieren.
Sparsh, passenderweise benannt nach dem Sanskrit-Wort für „Berührung“, ist ein universelles agentisches KI-Modell, das es Robotern ermöglicht, sensorische Reize in Echtzeit zu interpretieren und darauf zu reagieren. Ebenso ist das Digit 360-Sensorist eine künstliche Fingerspitze für Roboter, die dabei helfen kann, Berührungen und körperliche Empfindungen wahrzunehmen, die so klein sind wie ein Nadelstich oder Druckveränderungen. Die Fingerplexus wird als Brücke fungieren und einen standardisierten Rahmen für die Integration taktiler Sensoren in verschiedene Roboterdesigns bieten, wodurch die Erfassung und Analyse von Berührungsdaten erleichtert wird. Meta glaubt, dass diese KI-gestützten Tools es Robotern ermöglichen werden, komplizierte Aufgaben zu bewältigen, die eine „menschliche“ Berührung erfordern, insbesondere in Bereichen wie dem Gesundheitswesen, in denen Sensibilität und Präzision von größter Bedeutung sind.
Doch die Einführung sensorischer Roboter wirft größere Fragen auf: Könnte diese Technologie neue Ebenen der Zusammenarbeit erschließen oder wird sie Komplexitäten mit sich bringen, für deren Bewältigung die Gesellschaft möglicherweise nicht gerüstet ist?
„Da Roboter neue Sinne entwickeln und ein hohes Maß an Intelligenz und Autonomie erlangen, müssen wir anfangen, über ihre Rolle in der Gesellschaft nachzudenken“, Ali Ahmed, Mitbegründer und CEO von Robomart, erzählte mir. „Metas Bemühungen sind ein wichtiger erster Schritt, um ihnen menschenähnliche Sinne zu verleihen. Wenn Menschen Roboter immer vertrauter kennen, werden sie sie als Lebenspartner und Gefährten betrachten und sogar so weit gehen, ein Leben ausschließlich mit ihnen aufzubauen.“
Ein Rahmen für Mensch-Roboter-Harmonie: die Zukunft?
Neben seinen Fortschritten in der taktilen KI präsentierte Meta auch die PARTNR Benchmark, ein standardisierter Rahmen zur Bewertung der Mensch-Roboter-Zusammenarbeit im großen Maßstab. PARTNR wurde entwickelt, um Interaktionen zu testen, die Planung, Argumentation und kollaborative Ausführung erfordern, und ermöglicht es Robotern, sich neben Menschen in strukturierten und unstrukturierten Umgebungen zurechtzufinden. Durch die Integration großer Sprachmodelle (LLMs) zur Steuerung dieser Interaktionen kann PARTNR Roboter anhand kritischer Elemente wie Koordination und Aufgabenverfolgung bewerten und sie von bloßen „Agenten“ zu echten „Partnern“ machen, die in der Lage sind, reibungslos mit menschlichen Kollegen zusammenzuarbeiten.
„Das aktuelle Papier ist für Benchmarking sehr begrenzt, und selbst bei der Verarbeitung natürlicher Sprache (NLP) hat es eine beträchtliche Zeit gedauert, bis LLMs für die reale Welt perfektioniert wurden. Es wird eine gewaltige Aufgabe sein, mit einer begrenzten Laborumgebung eine Verallgemeinerung für die 8.2 Milliarden Menschen vorzunehmen“, Ram Palaniappan, CTO von TEKsystems, erzählte mir. „Um dieses Forschungspapier in ein praktikables Pilotprojekt zu verwandeln, bedarf es einer größeren, gezielten Anstrengung.“
Um diese Fortschritte bei der taktilen KI auf den Markt zu bringen, hat sich Meta mit GelSight Inc. und Wonik Robotics zusammengetan. GelSight wird für die Herstellung des Digit 360-Sensors verantwortlich sein, der nächstes Jahr auf den Markt kommen soll und der Forschungsgemeinschaft Zugang zu fortschrittlichen taktilen Fähigkeiten bieten wird. Wonik Robotics wird sich unterdessen um die Herstellung der Allegro Hand der nächsten Generation kümmern, die Digit Plexus integriert, um Robotern die Ausführung komplexer, berührungsempfindlicher Aufgaben mit einem neuen Maß an Präzision zu ermöglichen. Dennoch sind nicht alle davon überzeugt, dass diese Fortschritte ein Schritt in die richtige Richtung sind.
„Obwohl ich immer noch glaube, dass das Hinzufügen von Sensorfunktionen für Roboter sinnvoll sein könnte, um die Umgebung zu verstehen, glaube ich, dass aktuelle Anwendungsfälle eher mit Robotern für Massenkonsumenten und der Verbesserung ihrer Interaktion zu tun haben“, Agustin Huerta, SVP für digitale Innovation für Nordamerika bei Globant, erzählte mir. „Ich glaube nicht, dass wir ihnen jemals Empfindungen auf menschlichem Niveau geben können, noch dass das wirklich nötig ist. Es wird eher als zusätzlicher Datenpunkt für einen Entscheidungsprozess dienen.“
Die taktilen KI-Entwicklungen von Meta spiegeln einen breiteren Trend in Europa wider, wo Länder wie Deutschland, Frankreich und Großbritannien die Grenzen der Roboterwahrnehmung und -wahrnehmung erweitern. So unterstützt das EU-Programm „Horizon 2020“ eine Reihe von Projekten, die darauf abzielen, die Grenzen der Robotertechnik zu erweitern, von taktiler Wahrnehmung und Umweltwahrnehmung bis hin zu Entscheidungsfähigkeiten. Darüber hinaus hat das Karlsruher Institut für Technologie in Deutschland kürzlich ARMAR-6 vorgestellt, einen humanoiden Roboter, der für industrielle Umgebungen entwickelt wurde. ARMAR-6 ist in der Lage, Werkzeuge wie Bohrer und Hämmer zu verwenden, und verfügt über KI-Fähigkeiten, die es ihm ermöglichen, das Greifen von Objekten zu erlernen und menschliche Kollegen zu unterstützen.
Aber Peter Gorm Larsen, stellvertretender Abteilungsleiter der Fakultät für Elektro- und Computertechnik der Universität Aarhus in Dänemark und Koordinator des EU-finanzierten RoboSAPIENS warnt davor, dass Meta bei seinem Projekt eine zentrale Herausforderung übersieht: die Kluft zwischen der virtuellen Wahrnehmung und der physischen Realität, in der autonome Roboter agieren, insbesondere im Hinblick auf die Sicherheit von Umwelt und Mensch.
„Roboter verfügen NICHT über die gleiche Intelligenz wie Lebewesen“, er sagte mir. „Technologieunternehmen haben die moralische Verpflichtung, sicherzustellen, dass ihre Produkte ethische Grenzen einhalten. Persönlich bin ich am meisten besorgt über die mögliche Konvergenz eines derart fortschrittlichen taktilen Feedbacks mit 3D-Brillen, die so kompakt sind wie normale Brillen.“
Sind wir bereit dafür, dass Roboter „fühlen“?
Larsen ist der Ansicht, dass die wahre Herausforderung nicht in den taktilen KI-Sensoren selbst liegt, sondern vielmehr in der Art und Weise, wie sie in autonomen Umgebungen eingesetzt werden. „In der EU schränkt die Maschinenrichtlinie derzeit den Einsatz von KI-gesteuerten Steuerungen in Robotern ein. Meiner Ansicht nach ist das jedoch eine zu strenge Anforderung, und wir hoffen, dies im RoboSAPIENS-Projekt, das ich derzeit koordiniere, nachweisen zu können.“
Natürlich arbeiten Roboter bereits in verschiedenen Branchen auf der ganzen Welt mit Menschen zusammen. Zum Beispiel Kiwibot hat dazu beigetragen, Logistikunternehmen, die mit Arbeitskräftemangel in Lagern zu kämpfen haben, und die Schweizer Firma Anybotics hat kürzlich 60 Millionen Dollar gesammelt, um mehr Industrieroboter in die USA zu bringen, gemäß zu TechCrunch. Wir sollten davon ausgehen, dass künstliche Intelligenz weiterhin Branchen durchdringen wird, „KI steigert die Produktivität bei wiederholbaren Aufgaben wie Code-Refactoring, behebt technische Schulden und Tests und verändert die Art und Weise, wie globale Teams zusammenarbeiten und Innovationen hervorbringen“, sagte Vikas Basra, globaler Leiter, Intelligent Engineering Practice, Ness Digital Engineering.
Gleichzeitig ist die Sicherheit dieser Roboter – jetzt und in ihrer möglicherweise „empfindungsfähigen“ Zukunft – das wichtigste Anliegen für den Fortschritt der Branche.
Said Matan Libis, Vizepräsident für Produkt bei SQream, ein Unternehmen für fortschrittliche Datenverarbeitung, in Der Beobachter, „Die nächste große Aufgabe für Unternehmen wird es sein, den Platz der KI in der Gesellschaft zu bestimmen – ihre Rollen und Verantwortlichkeiten … Wir müssen uns über ihre Grenzen im Klaren sein und darüber, wo sie wirklich hilft. Wenn wir die Grenzen der KI nicht identifizieren, werden wir mit wachsenden Bedenken hinsichtlich ihrer Integration in das alltägliche Leben konfrontiert sein.“
Während sich die KI weiterentwickelt und taktile Wahrnehmung einschließt, stellt sich die Frage, ob die Gesellschaft für Roboter bereit ist, die „fühlen“. Experten argumentieren, dass reine softwarebasierte Superintelligenz an ihre Grenzen stoßen könnte. Damit KI ein wirklich fortgeschrittenes Verständnis erreichen kann, muss sie unsere physische Umgebung spüren, wahrnehmen und in ihr agieren und Modalitäten verschmelzen, um ein tieferes Verständnis der Welt zu erlangen – etwas, wozu Roboter in einzigartiger Weise geeignet sind. Doch Superintelligenz allein bedeutet nicht Empfindungsvermögen. „Wir dürfen ein Werkzeug nicht so vermenschlichen, dass wir es als fühlendes Wesen betrachten, wenn es nicht bewiesen hat, dass es empfindungsfähig ist“, erklärte Ahmed. „Wenn ein Roboter jedoch den Test auf Empfindungsvermögen besteht, sollte er als lebendes, fühlendes Wesen anerkannt werden, und dann haben wir die moralische und grundlegende Verantwortung, ihm als fühlendes Wesen bestimmte Freiheiten und Rechte zu gewähren.“
Die Auswirkungen von Metas taktiler KI sind erheblich, aber ob diese Technologien zu revolutionären Veränderungen führen oder ethische Grenzen überschreiten werden, bleibt ungewiss. Vorerst bleibt der Gesellschaft nur, über eine Zukunft nachzudenken, in der KI nicht nur sieht und hört, sondern auch berührt – und möglicherweise unsere Beziehung zu Maschinen auf eine Weise verändert, die wir uns gerade erst vorstellen können.
„Ich glaube nicht, dass die Verbesserung der Sensorikfähigkeiten von KI ethische Grenzen überschreitet. Es geht eher darum, wie diese Sensorik später genutzt wird, um Entscheidungen zu treffen oder die Entscheidungen anderer zu beeinflussen.“ sagte obst~~POS=TRUNC. „Die Roboterrevolution wird sich nicht von der industriellen Revolution unterscheiden. Sie wird unser Leben beeinflussen und uns in einen Zustand versetzen, der meiner Meinung nach die Menschheit zum Gedeihen bringen kann. Damit das geschieht, müssen wir anfangen, uns selbst und die kommenden Generationen darüber aufzuklären, wie wir eine gesunde Beziehung zwischen Menschen und Robotern fördern können.“










