Robotyka
Roboty z uczuciami: Jak sztuczna inteligencja dotyku może zmienić relacje między ludźmi a robotami
Żywe roboty były stałym elementem science fiction przez dziesięciolecia, wywołując interesujące pytania etyczne i rzucając światło na techniczne bariery tworzenia sztucznej świadomości. Większość tego, co świat techniki osiągnął w sztucznej inteligencji (AI) dzisiaj, jest wynikiem ostatnich postępów w głębokim uczeniu, które pozwala maszynom uczyć się automatycznie podczas treningu.
Ten przełom eliminuje potrzebę bolesnego, ręcznego inżynierii cech — kluczowego powodu, dla którego głębokie uczenie się wyróżnia się jako siła przekształcająca w AI i innowacjach technologicznych.
Budując na tym impet, Meta — która posiada Facebook, WhatsApp i Instagram — zanurza się w nowe, odważne terytorium zaawansowanych technologii „tactile AI”. Firma niedawno wprowadziła trzy nowe narzędzia AI —Sparsh, Digit 360, i Digit Plexus— zaprojektowane, aby dać robotom formę wrażliwości dotykowej, która ściśle naśladuje ludzkie postrzeganie.
Celem jest stworzenie robotów, które nie tylko naśladują zadania, ale aktywnie angażują się w swoje otoczenie, podobnie jak ludzie wchodzą w interakcje ze światem.
Sparsh, odpowiednio nazwany od sanskryckiego słowa „dotyk”, jest ogólnym modelem AI agentic, który pozwala robotom interpretować i reagować na sygnały sensoryczne w czasie rzeczywistym. Podobnie, czujnik Digit 360, jest sztucznym palcem dla robotów, który może pomóc postrzegać dotyk i fizyczne wrażenia tak drobne, jak ukłucie igły lub zmiany ciśnienia. Digit Plexus będzie działał jako most, zapewniając standardowy framework do integrowania czujników dotykowych w różnych projektach robotów, ułatwiając przechwytywanie i analizę danych dotykowych. Meta wierzy, że te narzędzia AI umożliwią robotom radzenie sobie z złożonymi zadaniami wymagającymi „ludzkiego” dotyku, szczególnie w dziedzinach takich jak opieka zdrowotna, gdzie wrażliwość i precyzja są niezwykle ważne.
Jednak wprowadzenie sensorycznych robotów podnosi większe pytania: czy ta technologia może odblokować nowe poziomy współpracy, czy wprowadzi złożoności, których społeczeństwo może nie być w stanie obsłużyć?
„Gdy roboty odblokowują nowe zmysły i zdobywają wysoki stopień inteligencji i autonomii, będziemy musieli zacząć brać pod uwagę ich rolę w społeczeństwie,” Ali Ahmed, współzałożyciel i CEO Robomart, powiedział mi. „Wysiłki Meta są dużym pierwszym krokiem w kierunku nadania im ludzkich zmysłów. Gdy ludzie stają się coraz bardziej zaangażowani w roboty, zaczną traktować je jako partnerów życiowych, towarzyszy i nawet będą budować życie wyłącznie z nimi.”
Ramowy framework dla harmonii człowiek-robot, przyszłość?
Wraz z postępami w tactile AI, Meta również przedstawiła PARTNR, standardowy framework do oceny współpracy człowiek-robot na dużą skalę. Zaprojektowany do testowania interakcji wymagających planowania, rozumowania i współpracy, PARTNR pozwoli robotom nawigować zarówno w strukturalnych, jak i niestrukturalnych środowiskach wraz z ludźmi. Poprzez integrację dużych modeli językowych (LLM) w celu kierowania tymi interakcjami, PARTNR może oceniać roboty pod kątem kluczowych elementów, takich jak koordynacja i śledzenie zadań, zmieniając je z zwykłych „agentów” w prawdziwych „partnerów” zdolnych do płynnej współpracy z ludzkimi odpowiednikami.
“Obecny artykuł jest bardzo ograniczony do benchmarkingu, a nawet w Natural Language Processing (NLP), zajęło to znaczny czas, aby LLM zostały udoskonalone dla świata rzeczywistego. Będzie to ogromne ćwiczenie, aby uogólnić dla 8,2 miliarda populacji z ograniczonym środowiskiem laboratoryjnym,” Ram Palaniappan, CTO TEKsystems, powiedział mi. „Będzie potrzebne większe, poświęcone wysiłki, aby wesprzeć tę pracę badawczą i uzyskać działający pilot.”
Aby wprowadzić te postępy w tactile AI na rynek, Meta współpracuje z GelSight Inc. i Wonik Robotics. GelSight będzie odpowiedzialny za produkcję czujnika Digit 360, który ma zostać wydany w przyszłym roku i da społeczności badawczej dostęp do zaawansowanych możliwości dotykowych. Wonik Robotics, z kolei, zajmie się produkcją następnej generacji Allegro Hand, która integruje Digit Plexus, aby umożliwić robotom wykonywanie złożonych, wrażliwych na dotyk zadań z nowym poziomem precyzji. Jednak nie wszyscy są przekonani, że te postępy są kierunkiem w prawo.
„Chociaż nadal wierzę, że dodanie zdolności sensorycznych może być znaczące dla robotów, aby zrozumieć środowisko, uważam, że bieżące przypadki użycia są bardziej związane z robotami dla masowych konsumentów i poprawą ich interakcji,” Agustin Huerta, SVP of Digital Innovation for North America at Globant, powiedział mi. „Nie wierzę, że będziemy blisko nadania im ludzkich wrażeń, ani że jest to potrzebne. Raczej będzie to działać bardziej jako dodatkowy punkt danych dla procesu decyzyjnego.”
Rozwój tactile AI przez Meta odzwierciedla szerszy trend w Europie, gdzie kraje takie jak Niemcy, Francja i Wielka Brytania są na granicy w robotyce sensorycznej i świadomości. Na przykład, program The Horizon 2020 Unii Europejskiej wspiera szereg projektów mających na celu posunięcie granic robotyki, od sensorycznego postrzegania i świadomości środowiska do zdolności decyzyjnych. Co więcej, Karlsruhe Institute of Technology w Niemczech niedawno wprowadziło ARMAR-6, humanoidalnego robota zaprojektowanego dla środowisk przemysłowych. ARMAR-6 jest wyposażony w narzędzia takie jak wiertarki i młoty i posiada zdolności AI, które pozwalają mu uczyć się, jak chwytać obiekty i pomagać ludzkim współpracownikom.
Jednak Dr. Peter Gorm Larsen, Vice-Head of Section at the Department of Electrical and Computer Engineering at Aarhus University w Danii, i koordynator projektu RoboSAPIENS, ostrzega, że Meta może pomijać kluczowe wyzwanie: przepaść między wirtualnymi percepcjami a fizyczną rzeczywistością, w której autonomiczne roboty działają, szczególnie w odniesieniu do bezpieczeństwa środowiska i ludzi.
„Roboty NIE posiadają inteligencji w tym samym sposób, co żywe istoty,” powiedział mi. „Firmy technologiczne mają moralny obowiązek zapewnienia, że ich produkty szanują granice etyczne. Osobiście, najbardziej martwię się o potencjalne zbieżenie tak zaawansowanego sprzężenia zwrotnego dotykowego z okularami 3D, tak kompaktowymi jak standardowe okulary.”
Czy jesteśmy gotowi na roboty, które “czują”?
Dr. Larsen uważa, że prawdziwe wyzwanie nie leży w samych czujnikach AI dotykowych, ale raczej w tym, jak są one wdrożone w autonomicznych ustawieniach. „W Unii Europejskiej, Dyrektywa Maszynowa ogranicza obecnie użycie sterowań AI w robotach. Ale, moim zdaniem, jest to zbyt surowy wymóg, i mamy nadzieję, że będziemy w stanie to udowodnić w projekcie RoboSAPIENS, którym obecnie kieruję.”
Oczywiście, roboty już współpracują z ludźmi w różnych branżach na całym świecie. Na przykład, Kiwibot pomógłfirmom logistycznym, które mają problemy z brakiem personelu w magazynach, a szwajcarska firma Anybotics niedawno zebrała 60 milionów dolarów, aby wprowadzić więcej robotów przemysłowych do Stanów Zjednoczonych, według TechCrunch. Powinniśmy oczekiwać, że sztuczna inteligencja będzie nadal przenikać do branż, ponieważ „AI przyspiesza produktywność w powtarzalnych zadaniach, takich jak refaktoryzacja kodu, rozwiązuje dług techniczny i testy, oraz przekształca, w jaki sposób globalne zespoły współpracują i innowują,” powiedział Vikas Basra, Global Head, Intelligent Engineering Practice, Ness Digital Engineering.
Jednocześnie bezpieczeństwo tych robotów — teraz, jak i w ich potencjalnej „świadomej” przyszłości — jest głównym problemem, aby branża mogła się rozwijać.
Powiedział Matan Libis, VP of product at SQream, zaawansowanej firmy przetwarzającej dane, w The Observer, „Następna misja dla firm będzie ustalenie miejsca AI w społeczeństwie — ich ról i odpowiedzialności … Musimy być jasni co do ich granic i gdzie one naprawdę pomagają. Jeśli nie zidentyfikujemy granic AI, będziemy mieć do czynienia z rosnącymi obawami o ich integrację w życie codzienne.”
Gdy AI ewoluuje, aby obejmować sensoryczne postrzeganie, pojawia się pytanie, czy społeczeństwo jest gotowe na roboty, które „czują”. Eksperci twierdzą, że czysta superinteligencja oparta na oprogramowaniu może osiągnąć pułap; aby AI osiągnęło prawdziwe, zaawansowane zrozumienie, musi ono postrzegać, odbierać i działać w naszych fizycznych środowiskach, łącząc modalności, aby uzyskać głębsze zrozumienie świata — coś, czego roboty są unikalnie przystosowane do osiągnięcia. Jednak sama superinteligencja nie równa się świadomości. „Nie powinniśmy antropomorfizować narzędzia do punktu kojarzenia go ze świadomą istotą, jeśli nie udowodniło, że jest zdolne do bycia świadomym,” wyjaśnił Ahmed. „Jednak jeśli robot przejdzie test na świadomość, wtedy powinniśmy uznać go za żywą, świadomą istotę i będziemy mieli moralną i fundamentalną odpowiedzialność, aby nadać mu pewne wolności i prawa jako świadomej istoty.”
Implikacje rozwoju tactile AI przez Meta są znaczące, ale czy te technologie doprowadzą do rewolucyjnych zmian czy przekroczą granice etyczne, pozostaje niepewne. Na razie społeczeństwo jest zmuszone zastanowić się nad przyszłością, w której AI nie tylko widzi i słyszy, ale także dotyka — potencjalnie zmieniając nasze relacje z maszynami w sposób, który dopiero zaczynamy wyobrażać sobie.
„Nie uważam, że zwiększanie zdolności sensorycznych AI przekracza granice etyczne. Jest to bardziej związane z tym, jak to postrzeganie jest później używane do podejmowania decyzji lub kierowania decyzjami innych,” powiedział Huerta. „Rewolucja robotów nie będzie inna niż rewolucja przemysłowa. Będzie wpływać na nasze życie i pozostawi nas w stanie, który uważam, że może sprawić, że ludzkość będzie prosperować. Aby to się stało, musimy zacząć edukować siebie i nadchodzące pokolenia, jak wspierać zdrowe relacje między ludźmi i robotami.”










