Vernetzen Sie sich mit uns

Weiterentwicklung der verkörperten KI: Wie Meta der KI menschliche Haptik und Geschicklichkeit verleiht

Robotik

Weiterentwicklung der verkörperten KI: Wie Meta der KI menschliche Haptik und Geschicklichkeit verleiht

mm

KI hat in der visuellen Wahrnehmung und Sprachverarbeitung große Fortschritte gemacht. Diese Fähigkeiten reichen jedoch nicht aus, um Systeme zu bauen, die mit der physischen Welt interagieren können. Menschen handhaben Objekte oder führen kontrollierte Bewegungen mithilfe ihres Tastsinns aus. Wir spüren Texturen, spüren Temperaturen und messen das Gewicht, um jede Aktion präzise zu steuern. Dieses taktile Feedback ermöglicht es uns, zerbrechliche Gegenstände zu handhaben, Werkzeuge kontrolliert zu verwenden und komplizierte Aufgaben reibungslos auszuführen.

Meta, bekannt für seine Arbeit im Bereich Virtual und Augmented Reality, stellt sich nun der Herausforderung, KI zu entwickeln, die ähnlich wie ein Mensch mit der physischen Welt interagieren kann. Im Rahmen seiner Initiative FAIR Robotics entwickelt Meta Open-Source-Tools und Frameworks, um den Tastsinn und die körperliche Beweglichkeit von Robotern zu verbessern. Diese Bemühungen könnten zur Entwicklung verkörperter KI führen – Systeme, die nicht nur sehen, sondern auch fühlen und Objekte wie Menschen manipulieren können.

Was ist verkörperte KI?

Verkörperte KI kombiniert physische Interaktion mit künstlicher Intelligenz und ermöglicht es Maschinen, ihre Umgebung zu spüren, darauf zu reagieren und auf natürliche Weise mit ihr zu interagieren. Anstatt nur Eingaben zu „sehen“ oder „hören“, ermöglicht es KI-Systemen, fühlen und handeln in die Welt. Stellen Sie sich einen Roboter vor, der den Druck spürt, den er auf ein Objekt ausübt, seinen Griff anpasst und sich agil bewegt. Verkörperte KI bringt KI von Bildschirmen und Lautsprechern in die physische Welt und ermöglicht es ihr, Objekte zu manipulieren, Aufgaben auszuführen und sinnvoller mit Menschen zu interagieren.

So könnte ein Roboter, der auf verkörperter KI basiert, beispielsweise einer älteren Person helfen, zerbrechliche Gegenstände aufzuheben, ohne sie zu beschädigen. Im Gesundheitswesen könnte er Ärzte unterstützen, indem er bei Operationen Instrumente präzise hält. Dieses Potenzial geht weit über Roboterarme in Laboren oder automatisierte Arme in Fabriken hinaus; es geht darum, Maschinen zu schaffen, die ihre physische Umgebung in Echtzeit verstehen und darauf reagieren.

Metas Ansatz zur verkörperten KI

Meta konzentriert sich auf drei Schlüsselbereiche Ziel ist es, verkörperte KI näher an menschliche Berührung heranzuführen. Zunächst entwickelt das Unternehmen fortschrittliche taktile Sensortechnologien, mit denen Maschinen Dinge wie Druck, Textur und Temperatur erkennen können. Zweitens erstellt Meta Modelle zur Berührungswahrnehmung, die es der KI ermöglichen, diese Signale zu verstehen und darauf zu reagieren. Schließlich baut Meta eine taktile Entwicklungsplattform, die mehrere Sensoren mit diesen Wahrnehmungsmodellen integriert und so ein komplettes System für die Entwicklung berührungsempfindlicher KI bietet. So treibt Meta den Fortschritt der verkörperten KI in all diesen Bereichen voran.

Meta Digit 360: Taktile Sensorik auf menschlichem Niveau

Meta hat eingeführt Digit 360 Fingerspitze, eine taktile Sensortechnologie, die der verkörperten KI einen menschenähnlichen Tastsinn verleihen soll. Mit über 18 Sensorfunktionen kann sie Vibrationen, Wärme und sogar Chemikalien auf Oberflächen erkennen. Ausgestattet mit einem KI-Chip verarbeitet die Fingerspitze Berührungsdaten sofort und ermöglicht so schnelle Reaktionen auf Eingaben wie die Hitze eines Ofens oder den spitzen Stich einer Nadel. Diese Technologie fungiert innerhalb der verkörperten KI als „peripheres Nervensystem“ und simuliert Reflexreaktionen, die menschlichen Reaktionen ähneln. Meta hat diese Fingerspitze mit einem einzigartigen optischen System entwickelt, das über 8 Millionen Taxel enthält und Berührungen aus jedem Winkel erfassen kann. Sie nimmt winzige Details wahr, bis hinunter zu Kräften von nur einem Millinewton, und verleiht der verkörperten KI so eine fein abgestimmte Sensibilität für ihre Umgebung.

Meta Sparsh: Die Grundlage für taktile Wahrnehmung

Meta verbessert die Berührungswahrnehmung, damit KI körperliche Empfindungen verstehen und darauf reagieren kann. Benannt nach dem Sanskrit-Wort für „Berührung“, Sparsch fungiert als „Touch-Gehirn“ für verkörperte KI. Das Modell ermöglicht es Maschinen, komplexe taktile Signale wie Druck und Griff zu interpretieren.

Eines der herausragenden Merkmale von Sparsh ist seine Vielseitigkeit. Herkömmliche taktile Systeme verwenden für jede Aufgabe separate Modelle und verlassen sich dabei stark auf gekennzeichnete Daten und spezifische Sensoren. Sparsh ändert diesen Ansatz völlig. Als Allzweckmodell passt es sich an verschiedene Sensoren und Aufgaben an. Es lernt Berührungsmuster mithilfe von selbstüberwachtes Lernen (SSL) auf einer riesigen Datenbank mit über 460,000 taktilen Bildern – ohne dass beschriftete Daten erforderlich sind.

Meta hat außerdem TacBench eingeführt, einen neuen Benchmark mit sechs berührungsbasierten Aufgaben zur Bewertung der Fähigkeiten von Sparsh. Meta behauptet, dass Sparsh traditionelle Modelle um 95.1 % übertraf, insbesondere in Szenarien mit wenigen Daten. Versionen von Sparsh, die auf Metas I-JEPA- und DINO-Architekturen basieren, haben bemerkenswerte Fähigkeiten bei Aufgaben wie Kraftschätzung, Schlupferkennung und komplexer Manipulation gezeigt.

Meta Digit Plexus: Eine Plattform für die Entwicklung taktiler Systeme

Meta hat Digit Plexus eingeführt, um Sensortechnologien und taktile Wahrnehmungsmodelle zu integrieren und so ein verkörpertes KI-System zu schaffen. Die Plattform kombiniert Fingerspitzen- und Handflächensensoren in einer einzigen Roboterhand, um koordiniertere Berührungsreaktionen zu ermöglichen. Mit diesem Aufbau kann die verkörperte KI sensorisches Feedback verarbeiten und ihre Aktionen in Echtzeit anpassen, so wie sich eine menschliche Hand bewegt und reagiert.

Durch die Standardisierung des Touch-Feedbacks über die Hand hinweg, Fingerplexus verbessert die Präzision und Kontrolle der verkörperten KI. Diese Entwicklung ist besonders wichtig in Bereichen wie Fertigung und Gesundheitswesen, wo sorgfältiger Umgang unerlässlich ist. Die Plattform verbindet Sensoren wie die Fingerspitze und ReSkin mit einem Kontrollsystem und optimiert so die Datenerfassung, -steuerung und -analyse – alles über ein einziges Kabel.

Meta stellt die Software- und Hardwaredesigns für Digit Plexus der Open-Source-Community zur Verfügung. Ziel ist es, die Zusammenarbeit zu fördern und die Forschung im Bereich der verkörperten KI zu beschleunigen, um Innovation und Fortschritt in diesen Bereichen voranzutreiben.

Förderung der Forschung und Entwicklung im Bereich verkörperte KI

Meta entwickelt nicht nur die Technologie, sondern auch die Ressourcen weiter, um Forschung und Entwicklung im Bereich der verkörperten KI zu fördern. Eine Schlüsselinitiative ist die Entwicklung von Benchmarks zur Bewertung von KI-Modellen. Ein solcher Benchmark, PARTNR (Planning And Reasoning Tasks in humaN-Robot collaboration) untersucht, wie KI-Modelle bei Haushaltsaufgaben mit Menschen interagieren. Mithilfe des Habitat 3.0-Simulators bietet PARTNR eine realistische Umgebung, in der Roboter bei Aufgaben wie Putzen und Kochen helfen. Mit über 100,000 sprachbasierten Aufgaben soll es den Fortschritt bei der verkörperten KI beschleunigen.

Neben internen Initiativen arbeitet Meta mit Organisationen wie GelSight Inc. und Wonik Robotik um die Einführung taktiler Sensortechnologien zu beschleunigen. GelSight wird Digit 360-Sensoren vertreiben, während Wonik Robotics die Allegro Hand herstellen wird, die die Digit Plexus-Technologie integriert. Indem Meta diese Technologien über Open-Source-Plattformen und Partnerschaften verfügbar macht, trägt das Unternehmen zur Schaffung eines Ökosystems bei, das zu Innovationen im Gesundheitswesen, in der Fertigung und in der Haushaltshilfe führen könnte.

Fazit

Meta entwickelt die verkörperte KI weiter und erweitert sie über das Sehen und Hören hinaus um den Tastsinn. Mit Innovationen wie Digit 360 und Sparsh erlangen KI-Systeme die Fähigkeit, ihre Umgebung präzise zu spüren und darauf zu reagieren. Indem Meta diese Technologien mit der Open-Source-Community teilt und mit wichtigen Organisationen zusammenarbeitet, trägt es dazu bei, die Entwicklung der taktilen Sensorik zu beschleunigen. Dieser Fortschritt könnte zu Durchbrüchen in Bereichen wie Gesundheitswesen, Fertigung und Haushaltshilfe führen und die KI bei Aufgaben der realen Welt leistungsfähiger und reaktionsfähiger machen.

Dr. Tehseen Zia ist außerordentlicher Professor an der COMSATS-Universität Islamabad und hat einen Doktortitel in KI von der Technischen Universität Wien, Österreich. Er ist auf künstliche Intelligenz, maschinelles Lernen, Datenwissenschaft und Computer Vision spezialisiert und hat mit Veröffentlichungen in renommierten wissenschaftlichen Fachzeitschriften bedeutende Beiträge geleistet. Dr. Tehseen hat außerdem als Hauptforscher verschiedene Industrieprojekte geleitet und war als KI-Berater tätig.