Connect with us

Tankeledere

Inneni i den nye robotikken: Data, modeller og produksjon

mm

Innovasjon oppstår sjelden i isolasjon. Ofte er det født i samtaler blant ingeniører, gründere, forskere og investorer som prøver å forstå hvor teknologien er på vei.

Over en periode på ett år, deltok jeg på dusinvis av konferanser rundt om i verden. Forretningsreiser kan noen ganger vare i måneder, og møter med partnere og kunder finner sted fra Asia til Nord-Amerika. Likevel viste en av mine nylige turer til Sveits seg å være spesielt interessant – hovedsakelig på grunn av menneskene og samtalen som skjedde der.

Zürich viste seg å være ett av stedene hvor fremtiden for robotikk og Physical AI aktivt diskuteres i dag. Og jo dypere disse samtalen går, jo mer åpenbart blir det at den virkelige kappløpet i robotikk utvikler seg rundt data.

Europas Silicon Valley

Zürich har tradisjonelt vært assosiert med finanssektoren, men i de senere årene har det i økende grad blitt kalt Europas Silicon Valley. Mye av denne reputasjonen er knyttet til ETH Zürich, ett av de mest respekterte ingeniør-universitetene i Europa. Det tiltrekker seg forskere, PhD-studenter, gründere og ingeniører fra hele verden. Som resultat har en kraftfull teknologisk økosystem dannet seg rundt universitetet, der forskning, startups og industriprosjekter utvikler seg nesten samtidig.

En av grunnene til min reise var å få en dypere forståelse av hva Introspector kan tilby robotikk-markedet, som har vært i eksplosjon siden begynnelsen av 2025. Det er en bransje som en rekke startups prøver å komme inn i, mens teknologiske gjennombrudd fra store teknologiselskaper aktivt omformer den. Likevel, til tross for all denne momentum, reiser feltet fortsatt flere spørsmål enn det gir svar.

Zürich er også hjemsted for våre partnere Lightly, som hjalp meg å bli kjent med likemenn som arbeider på skjæringspunktet mellom robotikk, datavisjon og AI. Det er ett viktig aspekt av den lokale teknologiske økosystemet som jeg ønsker å understreke: menneskene her er merkbart åpne og imøtekommende. De er ikke redd for å dele sine ideer og hypoteser, å snakke om utfordringene de prøver å løse, og eksperimentene de kjører. Som resultat begynner du å forstå markedets virkelige kontekst og hvor industrien er på vei mye raskere.

For øvrig, når folk spør meg hvordan den europeiske “Silicon Valley” skiller seg fra den amerikanske, overrasker svaret ofte dem. I Zürich, føles balansen mellom arbeid og liv mye sterkere: idrett om morgenen, fokusert arbeid om dagen i en rolig, men produktiv rytme, og kvelder tilbragt i fjellene med familie eller bare slappet av. I San Francisco, er det ofte en følelse av at du konstant må bevise at du jobber harder enn alle andre. I Zürich, er tempoet annerledes – mer bærekraftig. Likevel, er nivået av teknologisk ambisjon her ikke lavere.

Bedre data før bedre roboter

En av hovedkonklusjonene fra denne turen var en ganske enkel observasjon: mange mennesker i dag ønsker å jobbe med robotikk. Men til tross for det enorme interessen for industrien, er mange team fortsatt i en utforskningsfase, og prøver å forstå hvilken rolle de kan spille i den nye bølgen av robotikk og Physical AI, og hvilken bidrag de kan gi.

Mange samtaler konvergerer til slutt på samme tema: data. I dag, mangler industrien data på dexteritetsoppgaver, dvs. fine motoriske ferdigheter. På dette området, er robotenes evner ekstremt begrensede. Hva mennesker gjør med hendene nesten automatisk – plukker opp et objekt, vrir det, plasserer det forsiktig et sted, eller utfører en liten manipulering – er fortsatt en av de mest utfordrende oppgavene for roboter.

Nøkkelen til fremgang her ligger primært i store, riktig samlede datasett. I dag, snakker folk ofte om egosentriske datasett, innspilt fra et førstepersonsperspektiv, der systemet fanger menneskelige handlinger som om det utførte dem selv. Men i praksis, viser det seg at selv konseptet “egosentriske datasett” kan bety svært forskjellige ting og reiser en rekke tekniske spørsmål. Hvor skal kameraet plasseres? På panne, på brystet, eller kanskje på øyenhøyde? Hvilke sensorer skal akkompagnere videoopptakene? Hvis vi fanger håndbevegelser, skal operatørene bruke spesielle hansker? Og hvis så, skal hansker inkludere taktilsensorer, gyroskoper eller andre bevegelsessporingssystemer?

En enda mer kompleks spørsmål oppstår: hvordan fange dybden av bevegelse på en korrekt måte? Etter all, er det viktig å forstå ikke bare posisjonen til en hånd i en todimensjonal plane, men også hvordan den beveger seg gjennom tredimensjonal rom – fremover, bakover, opp eller ned.

Så langt, har industrien ikke nådd en enhetlig svar. Derfor eksperimenterer mange team i dag med forskjellige sensor-konfigurasjoner, innspillingsmetoder og datasett-formater.

Flervalgede systemer

Så snart samtalen dreier seg til datainnsamling for robotikk, oppstår et annet tema raskt – ekstra sensorer og flervalgede systemer, som muliggjør innfanging av kroppbevegelser, håndhandling og gjenstandinteraksjoner med større presisjon. De hjelper også med å redusere feil under datasett-innsamling.

Når en person optar handlinger på kamera, er det alltid en risiko for at en del av materialet blir ubrukbart. Kameraet kan skifte litt, innspillingsvinkelen kan være feil, operatøren kan uforvarende vende feil vei, eller operatøren kan utføre en bevegelse for raskt. Som resultat, må en betydelig del av det innspilte materialet kastes. Et enkelt eksempel: for å få en time med virkelig brukbart video, må en operatør ofte innspille rundt to timer med råopptak.

Ekstra sensorer hjelper med å kompensere for noen av disse problemene. Selv hvis kameraet skifter litt, kan sensor-data fortsatt gjøre det mulig å rekonstruere bevegelsen av hånden eller posisjonen av kroppen i rommet. Som resultat, istedenfor to timer med innspilling, kan det kanskje ta rundt en time og tjue minutter å få samme mengde brukbar data. Dette øker betydelig effektiviteten av datasett-innsamling og reduserer kostnadene ved å lage dem.

Det er derfor ingen tilfeldighet at mange team også merker en økende interesse for flervalgede data-annotering. Dette har blitt en av de mer synlige trendene direkte koblet til utviklingen av robotikk og inkorporert AI.

Neste punkt er annotering av slike datasett. Vi har møtt lignende spørsmål hos Keymakr når vi arbeider med klient-datasett for robotikk-saker: hva skal en slik annotering se ut som i praksis? Skal det være skjelett-liknende? To-dimensjonalt eller tredimensjonalt? Skal elementer av forsterkingslæring inkorporeres i pipeline? Det er dusinvis av slike spørsmål. Ingeniører selv innrømmer at ingen kan si med sikkerhet hvilken bestemt datakonfigurasjon som til slutt vil føre til en virkelig teknologisk gjennombrudd.

Disse bekymringene er forståelige. Bygging av komplekse datasett er en kostbar prosess. Hver feil i datastrukturen kan koste tusenvis eller til og med millioner av dollar. Det er mulig å samle inn “feil” datasett eller innspille det under forhold som er vanskelige å gjenta i den virkelige verden, og til slutt undergrave hele prosjektet. Det er nettopp derfor at i dag, mer og mer oppmerksomhet blir gitt til både modellene selv og kvaliteten og arkitekturen av dataene som modellene er trent på.

Hva slags roboter trenger markedet?

Klassiske industri-roboter, som har operert på bilmonteringslinjer i tiår, trenger faktisk svært lite datavisjon eller komplekse AI-modeller. Deres oppgave er ekstremt spesifikk: å utføre strengt repetitive bevegelser – venstre, høyre, opp, ned – med høy presisjon og konsistens. På dette området, har de lenge overgått mennesker.

En helt annen kategori er humanoid-roboter. Disse systemene krever “hjerner”: evnen til å navigere i rommet, fatte omgivelsene, forstå konteksten av en situasjon, og kontrollere manipulatorer ikke gjennom forhåndsprogrammerte baner, men ved å tilpasse seg den virkelige verden.

Selv med det høye nivået av automatisering på moderne fabrikkgulv, utføres mange oppgaver fortsatt av mennesker. Flytte et objekt, plukke opp en boks, sortere deler, feste en komponent eller organisere materialer – disse er små handlinger som krever fleksibilitet og koordinasjon. Dette området forblir ett av de mest vanskelige å automatisere, og det er nettopp her at humanoid-systemer kan finne sin rolle.

Mange av teamene jeg snakket med, bruker en lignende forretningsmodell. De nærmer seg en fabrikk og foreslår å løse en spesifikk produksjons-sak. For eksempel, kan en arbeider bruke hele dagen på å flytte bokser mellom lager-soner. Ingeniører foreslår en relativt enkel eksperiment: utstyre arbeideren med en kamera og en sett med sensorer, innspille tusenvis av timer med deres handlinger, og bruke denne dataen til å trene en modell som vil kontrollere en humanoid-robot. På denne måten, lærer roboten å utføre nettopp de oppgavene som utføres av den menneskelige arbeideren.

I essensen, kjøper selskapet en humanoid-plattform, mens utviklingsteamet bygger en tilpasset modell som replikerer atferden til en spesifikk operatør. Dette er ikke en universell intelligens som kan løse enhver oppgave. Snarere, er det en sett av ferdigheter trent for en bestemt scenario eller en gruppe produksjonsoppgaver. For mange ingeniører i dag, ser denne tilnærmingen ut til å være mer realistisk. Istedenfor å prøve å skape en universell robot umiddelbart, fokuserer teamene på smale, men økonomisk viable automatiserings-scenarier.

Den forretningsmessige dimensjonen

Hvis fremtiden ligger i tilpassede modeller, er det viktig å forstå at, fra et økonomisk perspektiv, dette er en ganske lang utviklingsvei.

Hver industri er essensielt sin egen verden. Hver produksjonsmiljø har sine egne prosesser, arbeidsflyter og unntak. En robot trent til å operere i en bilfabrikk, kan ikke bare overføres til matproduksjon eller lager-logistikk. I hver enkelt tilfelle, må systemet være omtrukket fra scratch.

Dette fører til det neste logiske spørsmålet: hvem vil være de første kundene av en slik teknologi?

På dette stadiet, er de primære adopterne sannsynligvis å være store bedrifter – de med budsjettene og for hvem automatisering kan generere en meningsfull økonomisk effekt. I dag, koster en humanoid-robot omtrent 60 000-90 000 dollar for hårdwaren alene. Dette er bare basis-konfigurasjonen. I tillegg kommer det vedlikeholds-kostnader, batterier, lade-stasjoner, infrastruktur og programvare.

Som resultat, er de selskapene som er best i stand til å eksperimentere med slike systemer, store organisasjoner, bilprodusenter, mat-konserner og store industrielle bedrifter.

Selvfølgelig, kan mindre sektorer også se noen tidlige adoptere. Noen selskaper kan kjøpe en eller to roboter for spesifikke oppgaver. Men i de fleste tilfeller, er disse bedriftene bare ikke klare til å investere hundredtusener av euro i å samle inn og annotere de tilpassede datasettene som kreves for å trene systemer for høyt spesifikke operative scenarier. For dem, er menneskelig arbeidskraft fortsatt det billigste alternativet.

Det lange spillet av robotikk-innovasjon

Vi kommer til slutt til et grunnleggende økonomisk spørsmål: hva er mer effektivt – et menneske eller en robot? Hvis vi ser på dagens økonomi, er svaret åpenbart: menneskelig arbeidskraft er billigere, tilpasser seg raskere til nye forhold, og krever ikke kompleks infrastruktur.

Så hvorfor fortsetter industrien å investere i robotikk i dag? Svaret er i stor grad strategisk.

Mange selskaper forstår at en slags kappløp for teknologisk ledelse er underveis. De utvikler allerede løsninger, til tross for de høye kostnadene, for å være foran når økonomien av robotikk skifter.

Etter hvert som elektronikk utvikler seg, synker komponent-kostnader, og datamaskin-effektivitet forbedres, vil robotikk uunngåelig bli mer rimelig. Og når det skjer, vil fordelen tilhøre de selskapene som allerede har bygget modeller, samlet inn data og etablert den nødvendige teknologiske infrastrukturen.

Tenk deg for eksempel at nye reguleringsforskrifter kommer som tillater stor-skala bruk av humanoid-roboter i produksjon. Eller at regjeringer begynner å subsidiere robotisering av industrier. I en slik scenario, kan markedet vokse dramatisk på bare noen få år. Og de som forberedte seg i forkant, de med eksisterende modeller, forskning, datasett og en klar teknologisk stak, vil være de som nyter mest.

Derfor fortsetter utviklingen også nå, til tross for at forretnings-økonomien kanskje ikke ser ideell ut. For mange selskaper, er det en investering i fremtiden – i øyeblikket når teknologier blir mer tilgjengelige, og etterspørselen øker skarpt.

Og i denne kappløpet, som i mange teknologiske revolusjoner, er ett faktor ofte avgjørende: hvem startet først. På denne måten, ligner dagens robotikk sterkt på de tidlige stadiene av kunstig intelligens. Da var det også flere spørsmål enn svar. Likevel, var det teamene som begynte å arbeide med data og infrastruktur tidligere enn andre som til slutt formet retningen av hele industrien.

Michael Abramov er grunnlegger og CEO av Introspector, og bringer over 15+ års erfaring med programvareutvikling og datamaskinseende AI-systemer til å bygge bedriftsgraderte merkingverktøy.

Michael begynte sin karriere som programvareutvikler og R&D-sjef, og bygde skalerbare datasystemer og ledet tverrfaglige ingeniørteam. Frem til 2025 har han vært CEO av Keymakr, et dataselskap for merkingstjenester, der han var pioner innenfor menneske-i-løkken-arbeidsflyter, avanserte QA-systemer og tilpassede verktøy for å støtte større skala datamaskinseende og autonomi databehov.

Han har en B.Sc. i datavitenskap og en bakgrunn i ingeniørvitenskap og kreative kunstarter, og bringer en tverrfaglig tilnærming til å løse vanskelige problemer. Michael bor i skjæringspunktet mellom teknologisk innovasjon, strategisk produktledelse og virkelige verdensvirkninger, og driver fremover den neste fronten av autonome systemer og intelligente automatiseringer.