Robotik
Robotar med kÀnsla: Hur taktil AI kan förÀndra mÀnskliga robotrelationer
Medvetna robotar har varit en stapel i science fiction under årtionden, vilket väcker frestande etiska frågor och belyser de tekniska hindren för att skapa artificiell medvetenhet. Mycket av vad techvärlden har uppnått i artificiell intelligens (AI) idag är tack vare de senaste framstegen inom djupinlärning, som gör det möjligt för maskiner att lära sig automatiskt under utbildning.
Denna genombrott eliminerar behovet av smärtsamma, manuella funktioner – en viktig anledning till varför djupinlärning sticker ut som en omvandlande kraft i AI och tech-innovation.
Genom att bygga på denna momentum, Meta – som äger Facebook, WhatsApp och Instagram – dyker in i ett nytt territorium med avancerad “taktil AI”-teknologi. Företaget har nyligen introducerat tre nya AI-drivna verktyg – Sparsh, Digit 360 och Digit Plexus – som är utformade för att ge robotar en form av taktil känslighet som nära efterliknar mänsklig perception.
Målet? Att skapa robotar som inte bara imiterar uppgifter utan aktivt engagerar sig i sin omgivning, liknande hur människor interagerar med världen.
Sparsh, som passande nog är uppkallad efter det sanskrit-ordet för “beröring”, är en allmän-purpose agens AI-modell som tillåter robotar att tolka och reagera på sensoriska signaler i realtid. Likaså är Digit 360-sensorn en konstgjord fingertopp för robotar som kan hjälpa till att uppfatta beröring och fysiska sensationer så små som en nåls stick eller förändringar i tryck. Digit Plexus kommer att fungera som en bro, som tillhandahåller en standardiserad ram för att integrera taktila sensorer över olika robotdesigner, vilket gör det lättare att fånga och analysera beröringsdata. Meta tror att dessa AI-drivna verktyg kommer att tillåta robotar att hantera intrikata uppgifter som kräver en “mänsklig” beröring, särskilt inom områden som hälsovård, där känslighet och precision är av största vikt.
Men införandet av sensoriska robotar väcker större frågor: kan denna teknik låsa upp nya nivåer av samarbete, eller kommer den att introducera komplexiteter som samhället kanske inte är utrustat för att hantera?
“När robotar låser upp nya sinnen och får en hög grad av intelligens och autonomi, måste vi börja överväga deras roll i samhället,” Ali Ahmed, medgrundare och VD för Robomart, berättade för mig. “Metas ansträngningar är ett stort första steg mot att ge dem mänskliga sinnen. När människor blir alltmer intima med robotar, kommer de att börja behandla dem som livspartner, kamrater och till och med gå så långt som att bygga ett liv uteslutande med dem.”
En ram för mänsklig-robot harmoni, framtiden?
Tillsammans med sina framsteg inom taktil AI, har Meta också avslöjat PARTNR-benchmark, en standardiserad ram för att utvärdera mänsklig-robot samarbete i stor skala. Utformad för att testa interaktioner som kräver planering, resonemang och samarbetsutförande, PARTNR kommer att tillåta robotar att navigera både strukturerade och ostrukturerade miljöer tillsammans med människor. Genom att integrera stora språkmodeller (LLM) för att vägleda dessa interaktioner, kan PARTNR utvärdera robotar på kritiska element som samordning och uppgiftsspårning, och flytta dem från enkla “agenter” till äkta “partners” som kan arbeta flytande med mänskliga motparter.
“Den nuvarande artikeln är mycket begränsad för benchmarking, och även inom Natural Language Processing (NLP), tog det en betydande tid för LLM att perfekteras för den verkliga världen. Det kommer att vara en enorm övning att generalisera för 8,2 miljarder människor med en begränsad labbmiljö,” Ram Palaniappan, CTO på TEKsystems, berättade för mig. “Det kommer att krävas en större dedikerad ansträngning för att öka denna forskningsartikel till en fungerande pilot.”
För att ta dessa taktila AI-framsteg till marknaden, har Meta samarbetat med GelSight Inc. och Wonik Robotics. GelSight kommer att producera Digit 360-sensorn, som planeras att släppas nästa år och kommer att ge forskarsamhället tillgång till avancerade taktila funktioner. Wonik Robotics kommer att hantera produktionen av nästa generations Allegro Hand, som integrerar Digit Plexus för att möjliggöra för robotar att utföra intrikata, taktila uppgifter med en ny nivå av precision. Men inte alla är övertygade om att dessa framsteg är ett steg i rätt riktning.
“Även om jag fortfarande tror att tillägg av sensoriska funktioner kan vara meningsfullt för robotar för att förstå miljön, tror jag att nuvarande användningsfall är mer relaterade till robotar för masskonsumenter och förbättring av deras interaktion,” Agustin Huerta, SVP för Digital Innovation för Nordamerika på Globant, berättade för mig. “Jag tror inte att vi kommer att vara nära att ge dem mänskliga sinnen, eller att det faktiskt behövs. Snarare kommer det att fungera som en ytterligare datapunkt för ett beslutsfattande process.”
Metas taktila AI-utveckling reflekterar en bredare trend i Europa, där länder som Tyskland, Frankrike och Storbritannien pressar gränserna för robotisk känslighet och medvetenhet. Till exempel stöder EU:s Horizon 2020-program en rad projekt som syftar till att pressa robotgränser, från taktil känslighet och miljömedvetenhet till beslutsförmåga. Dessutom introducerade Karlsruhe Institute of Technology i Tyskland nyligen ARMAR-6, en humanoid robot utformad för industriella miljöer. ARMAR-6 är utrustad för att använda verktyg som borr och hammare och har AI-funktioner som tillåter den att lära sig att gripa föremål och assistera mänskliga medarbetare.
Men, Dr. Peter Gorm Larsen, Vice-chef för avdelningen för elektroteknik och datateknik vid Aarhus universitet i Danmark, och samordnare för EU-finansierade RoboSAPIENS-projektet, varnar för att Meta kanske försummar en viktig utmaning: klyftan mellan virtuella perceptioner och den fysiska verkligheten som autonoma robotar opererar i, särskilt när det gäller miljö- och mänsklig säkerhet.
“Robotar har INTE intelligens på samma sätt som levande varelser,” han berättade för mig. “Teknikföretag har en moralisk skyldighet att se till att deras produkter respekterar etiska gränser. Personligen är jag mest orolig för den potentiella konvergensen av sådan avancerad taktil återkoppling med 3D-glasögon som är lika kompakta som vanliga glasögon.”
Är vi redo för robotar som “känner”?
Dr. Larsen tror att den verkliga utmaningen inte är de taktila AI-sensorerna i sig, utan snarare hur de används i autonoma miljöer. ”I EU begränsar Maskindirektivet för närvarande användningen av AI-styrda kontroller i robotar. Men i min mening är det ett alltför strängt krav, och vi hoppas kunna demonstrera det i RoboSAPIENS-projektet som jag för närvarande samordnar.”
Naturligtvis samarbetar robotar redan med människor inom olika branscher över hela världen. Till exempel har Kiwibot hjälpt logistikföretag som hanterar arbetskraftsbrist i lager, och det schweiziska företaget Anybotics har nyligen fått 60 miljoner dollar för att hjälpa till att ta in fler industrirobotar i USA, enligt TechCrunch. Vi bör förvänta oss att artificiell intelligens kommer att fortsätta att genomsyra branscher, eftersom ”AI accelererar produktivitet i upprepningsbara uppgifter som kodrefaktoring, adresserar teknisk skuld och testning, och förvandlar hur globala team samarbetar och innovativa,” sa Vikas Basra, Global Head, Intelligent Engineering Practice, Ness Digital Engineering.
På samma gång är säkerheten för dessa robotar – nu och i deras potentiellt “medvetna” framtid – den främsta oron för att industrin ska kunna fortsätta.
Sade Matan Libis, VP of product at SQream, ett företag för avancerad datahantering, i The Observer, ”Nästa stora uppdrag för företag kommer att vara att etablera AI:s plats i samhället – dess roller och ansvar … Vi måste vara tydliga om dess gränser och var det verkligen hjälper. Om vi inte identifierar AI:s begränsningar, kommer vi att möta växande bekymmer om dess integration i vardagslivet.”
Medan AI utvecklas för att omfatta taktil känslighet, väcks frågan om samhället är redo för robotar som “känner”. Experter hävdar att ren programvarubaserad superintelligens kan nå en gräns; för AI att nå en sann, avancerad förståelse, måste den känna, uppfatta och agera i vår fysiska miljö, sammanfoga modaliteter för en mer djupgående förståelse av världen – något som robotar är unikt lämpade att uppnå. Men superintelligens ensam motsvarar inte medvetenhet. “Vi måste inte antropomorfisera ett verktyg till den grad att vi associerar det med en medveten varelse om det inte har visat sig vara medvetet”, förklarade Ahmed. “Men om en robot klarar testet för medvetenhet, då bör den erkännas som en levande medveten varelse och då ska vi ha det moraliska och grundläggande ansvaret att ge den vissa friheter och rättigheter som en medveten varelse.”
Konsekvenserna av Metas taktila AI är betydande, men om dessa tekniker kommer att leda till revolutionerande förändring eller korsa etiska gränser förblir osäkert. För tillfället lämnas samhället att fundera på en framtid där AI inte bara ser och hör, utan också rör – potentiellt omformar vår relation med maskiner på sätt som vi bara börjar föreställa oss.
”Jag tror inte att ökningen av AI:s sensoriska förmågor korsar gränsen för etik. Det är mer relaterat till hur den sensoriska informationen senare används för att fatta beslut eller påverka andras beslut,” sa Huerta. ”Robotrevolutionen kommer inte att skilja sig från den industriella revolutionen. Den kommer att påverka våra liv och lämna oss i en tillstånd som jag tror kan göra mänskligheten blomstra. För att det ska hända, måste vi börja utbilda oss själva och de kommande generationerna om hur man kan främja en hälsosam relation mellan människor och robotar.”










