Connect with us

Tankeledere

Vi lærte robotter at bevæge sig. Nu lærer vi dem at leve

mm

Moderne robotteknologi er nået til et punkt, hvor bevægelse ikke længere er den største udfordring – maskiner kan allerede navigere, gribe og operere i rummet med imponerende præcision. Dog forbliver det at enable dem til virkelig at “leve” og fungere i den virkelige verden et uløst problem.

I denne proces spiller det, der kan kaldes for “rygmarven”: systemet, der er ansvarligt for grundlæggende reaktioner, adfærd og interaktion med omgivelserne, en nøglerolle.

Når man ser på robotternes udvikling gennem denne linse, bliver det klart, at denne sekvens af stadier – hvor systemet lærer noget nyt på hvert trin, fra simpel bevægelse til komplekse, kontekst-afhængige handlinger – ligner menneskelig udvikling tæt.

Og det er netop inden for denne udvikling – fra “tom” hardware til meningsfuld adfærd – at den primære skift i fysisk AI sker i dag. Interessant at lære det mere dybt.

Robotikkens grundlag: et stadium, der sjældent diskuteres

Hvad er en robot i praktisk forstand? Det er en fysisk enhed, der oprindeligt er skabt som en universel platform. I essensen er det en “blank”, der herefter skal tilpasses til bestemte opgaver, trænes til at operere i en given omgang og læres at udføre de krævede handlinger.

Hvis vi bevæger os ud over hverdags-scenarier og overvejer mere realistiske nær-fremtidige anvendelser, bliver det klart, at den fulde tilpasning af robotter primært vil ske i industrielle og potentielt farlige omgivelser. Dette medfører i sin tur betydeligt højere krav til deres adfærd, robusthed og træningskvalitet.

Processen begynder med det mest grundlæggende trin – opbygningen af enheden selv. En robot samles af multiple komponenter, herunder aktuatorer, motorer, sensorer, kameraer, LiDARs. Den kan være humanoid, hjulet, bipedal eller kvadrupedal – formfaktoren er sekundær. Det, der betyder noget, er, at vi på dette stadium ender med en fungerende, men stadig “tom” enhed.

Det næste stadium er installationen af en basis-model, der fungerer som grundlag for dens adfærd. I bred forstand er “modellen” det hele funktionelle kontrol-lag. Det er ansvarligt for kernefærdigheder: at opretholde balance, stå og bevæge sig, navigere fra punkt A til punkt B, undgå hindringer, ikke beskadige omgivelserne og sikre interaktion med mennesker.

Her kommer forstærket læring ind i billedet. I sådanne systemer køres milliarder af simulationer. Vi ser ofte videoer af robotter, der “lærer” i komplekse omgivelser: de fleste af dem falder, mister balance eller fejler at fuldføre opgaven. Men de, der formår at blive oprette og fortsætte med at bevæge sig, er dem, der fremskridter.

Dette er essensen af forstærket læring: udvælgelse af succesfuld adfærd. Algoritmernes af dem, der “overlever”, bliver grundlaget for de næste iterationer. Som resultat heraf opstår der efter et enormt antal kørsler en model, der kan håndtere hindringer med sikkerhed. Denne algoritme overføres herefter til den fysiske enhed.

Det er et grundlag, men kritisk vigtigt stadium – ofte med lidt eller intet computer-syn, hvilket ikke er nødvendigt på dette punkt. Det, vi har at gøre med her, er grundlæggende fysik og mekanik, der må indlejres i systemet fra begyndelsen.

Hvordan robotter begynder at “føle” verden

Så har vi allerede “hardware” – en robot med en basis-model installeret: den kan stå, gå og opretholde balance. Men er dette nok til rigtige verdens-opgaver, f.eks. i industrielle omgivelser? Klart ikke.

Det næste niveau begynder her. Vi integrerer sensorer og træner modellen til at handle baseret på sansning-indgang. En ny lag af kernefærdigheder opstår – allerede langt mere kompleks end simpel bevægelse.

En analogi med menneskelig udvikling er nyttig her. Ved det første stadium bragte vi systemet op til omtrent niveauet for et ett-årigt barn: det kan stå, tage sine første skridt og opretholde balance uden at falde. Det næste trin er mere i linje med et otte-årigt barns niveau.

Ved denne alder bruger et barn aktivt sine “sensorer”: det kan percipere risiko og evaluere konsekvenserne af sine handlinger. Det forstår ikke at røre noget varmt eller putte noget meget koldt i munden. Det kan klatre op på et bord, køre på cykel og interagere med objekter. Det er i stand til at gribe, bære og manipulere genstande og udføre grundlæggende selv-pleje-handlinger.

Vi kalder dette stadium fortræning. Og på dette punkt er simulationer alene ikke længere tilstrækkelige.

Ja, nogle scenarier kan stadig være effektivt modelleret: hvordan man tager en glass, eller erstatter en batteri, f.eks., fjerner en komponent, placerer den på opladning, tager en anden og installerer den tilbage.

Michael Abramov er grundlægger og CEO af Introspector, og bringer mere end 15+ års erfaring med softwareingeniørarbejde og computer vision AI-systemer til udviklingen af virksomhedsklasse-etiketteringsværktøjer.

Michael begyndte sin karriere som softwareingeniør og R&D-chef, hvor han opbyggede skalerbare datasystemer og ledede tværfaglige ingeniørhold. Indtil 2025 har han fungeret som CEO af Keymakr, et data-etiketteringsservicefirma, hvor han var pioner inden for menneske-i-løkken-arbejdsgange, avancerede QA-systemer og tilpasset værktøj til at understøtte store skala-computer vision og autonomi databehov.

Han har en B.Sc. i datalogi og en baggrund i ingeniørarbejde og kreative kunstneriske fag, hvilket giver ham en tværfaglig indsigt i løsning af komplekse problemer. Michael befinder sig ved skæringen af teknologisk innovation, strategisk produktledelse og virkelige resultater, og driver fremad mod den næste front i autonome systemer og intelligent automation.