Kontakt med oss

Tankeledere

Å velge øynene til det autonome kjøretøyet: En kamp mellom sensorer, strategier og avveininger

mm

Innen 2030 vil markedet for autonome kjøretøy er forventet å overstige 2.2 billioner dollar, med millioner av biler som navigerer veier ved hjelp av AI og avanserte sensorsystemer. Likevel, midt i denne raske veksten, forblir en grunnleggende debatt uløst: hvilke sensorer er best egnet for autonom kjøring – lidarer, kameraer, radarer eller noe helt nytt?

Dette spørsmålet er langt fra akademisk. Valg av sensorer påvirker alt fra sikkerhet og ytelse til kostnads- og energieffektivitet. Noen selskaper, som Waymo, satser på redundans og variasjon, og utstyrer kjøretøyene sine med et komplett sett med lidarer, kameraer og radarer. Andre, som Tesla, forfølger en mer minimalistisk og kostnadseffektiv tilnærming, og er i stor grad avhengige av kameraer og programvareinnovasjon.

La oss utforske disse ulike strategiene, de tekniske paradoksene de står overfor, og forretningslogikken som driver beslutningene deres.

Hvorfor smartere maskiner krever smartere energiløsninger

Dette er virkelig et viktig problem. Jeg sto overfor et lignende dilemma da jeg startet en drone-relatert oppstartsbedrift i 2013. Vi prøvde å lage droner som kunne spore menneskelig bevegelse. På den tiden var ideen foran, men det ble snart klart at det var et teknisk paradoks.

For at en drone skal kunne spore et objekt, må den analysere sensordata, noe som krever datakraft – en innebygd datamaskin. Jo kraftigere datamaskinen må være, desto høyere er energiforbruket. Følgelig trengs et batteri med større kapasitet. Et større batteri øker imidlertid dronens vekt, og mer vekt krever enda mer energi. En ond sirkel oppstår: økende strømbehov fører til høyere energiforbruk, vekt og til slutt kostnader.

Det samme problemet gjelder for autonome kjøretøy. På den ene siden ønsker man å utstyre kjøretøyet med alle mulige sensorer for å samle inn så mye data som mulig, synkronisere dem og ta de mest nøyaktige beslutningene. På den andre siden øker dette systemets kostnader og energiforbruk betydelig. Det er viktig å vurdere ikke bare kostnaden for selve sensorene, men også energien som kreves for å behandle dataene deres.

Datamengden øker, og beregningsbelastningen øker. Over tid har selvsagt datasystemer blitt mer kompakte og energieffektive, og programvare har blitt mer optimalisert. På 1980-tallet kunne det ta timer å behandle et 10×10 pikselbilde. I dag analyserer systemer 4K-video i sanntid og utfører ytterligere beregninger på enheten uten å forbruke for mye energi. Ytelsesdilemmaet gjenstår imidlertid, og AV-selskaper forbedrer ikke bare sensorer, men også beregningsmaskinvare og optimaliseringsalgoritmer.

Prosessering eller persepsjon?

Ytelsesproblemene der systemet må bestemme hvilke data som skal utelates, skyldes primært beregningsbegrensninger snarere enn problemer med LiDAR-, kamera- eller radarsensorer. Disse sensorene fungerer som kjøretøyets øyne og ører, og fanger kontinuerlig opp store mengder miljødata. Men hvis den innebygde data-"hjernen" mangler prosessorkraften til å håndtere all denne informasjonen i sanntid, blir det overveldende. Som et resultat må systemet prioritere visse datastrømmer fremfor andre, og potensielt ignorere noen objekter eller scener i spesifikke situasjoner for å fokusere på oppgaver med høyere prioritet.

Denne beregningsmessige flaskehalsen betyr at selv om sensorene fungerer perfekt, og de ofte har redundans for å sikre pålitelighet, kan kjøretøyet fortsatt slite med å behandle alle dataene effektivt. Å skylde på sensorene er ikke passende i denne sammenhengen fordi problemet ligger i databehandlingskapasiteten. Forbedring av beregningsmaskinvare og optimalisering av algoritmer er viktige skritt for å redusere disse utfordringene. Ved å forbedre systemets evne til å håndtere store datamengder, kan autonome kjøretøy redusere sannsynligheten for å gå glipp av kritisk informasjon, noe som fører til tryggere og mer pålitelig drift.

Lidar-, kamera- og radarsystemer: Fordeler og ulemper

Det er umulig å si at én type sensor er bedre enn en annen – hver type tjener sitt eget formål. Problemer løses ved å velge riktig sensor for en spesifikk oppgave.

LiDAR tilbyr presis 3D-kartlegging, men er dyrt og sliter med ugunstige værforhold som regn og tåke, som kan spre lasersignalene. Det krever også betydelige beregningsressurser for å behandle de tette dataene.

Kameraer er kostnadseffektive, men de er svært avhengige av lysforholdene. De yter dårlig i svakt lys, med gjenskinn eller raske lysendringer. De mangler også dybdesyn og sliter med hindringer som skitt, regn eller snø på linsen.

Radar er pålitelig når det gjelder å oppdage objekter under ulike værforhold, men den lave oppløsningen gjør det vanskelig å skille mellom små eller tett inntil hverandre beliggende objekter. Den genererer ofte falske positiver, og oppdager irrelevante elementer som kan utløse unødvendige reaksjoner. I tillegg kan ikke radar tyde kontekst eller hjelpe med å identifisere objekter visuelt, i motsetning til kameraer.

Ved å utnytte sensorfusjon – å kombinere data fra LiDAR, radar og kameraer – får disse systemene en mer helhetlig og nøyaktig forståelse av omgivelsene sine, noe som igjen forbedrer både sikkerhet og beslutningstaking i sanntid. NøkkelmakrSamarbeidet med ledende ADAS-utviklere har vist hvor kritisk denne tilnærmingen er for systempålitelighet. Vi har konsekvent jobbet med mangfoldige datasett av høy kvalitet for å støtte modelltrening og forbedring.

Waymo VS Tesla: En fortelling om to autonome visjoner

Innen AV er det få sammenligninger som skaper så mye debatt som Tesla og Waymo. Begge er pionerer innen fremtidens mobilitet – men med radikalt forskjellige filosofier. Så hvorfor ser en Waymo-bil ut som et sensorfylt romskip, mens Tesla tilsynelatende nesten uten eksterne sensorer?

La oss ta en titt på Waymo-kjøretøyet. Det er en grunnleggende Jaguar modifisert for autonom kjøring. På taket er det dusinvis av sensorer: lidarer, kameraer, spinnende lasersystemer (såkalt «spinnere») og radarer. Det er virkelig mange av dem: kameraer i speilene, sensorer på støtfangerne foran og bak, langdistansevisningssystemer – alt dette er synkronisert.

Hvis et slikt kjøretøy havner i en ulykke, legger ingeniørteamet til nye sensorer for å samle inn manglende informasjon. Tilnærmingen deres er å bruke maksimalt antall tilgjengelige teknologier.

Så hvorfor følger ikke Tesla samme vei? En av hovedgrunnene er at Tesla ennå ikke har lansert Robotaxi på markedet. Tilnærmingen deres fokuserer også på kostnadsminimering og innovasjon. Tesla mener at bruk av lidarer er upraktisk på grunn av den høye prisen: produksjonskostnaden for et RGB-kamera er omtrent 3 dollar, mens en lidar kan koste 400 dollar eller mer. Videre inneholder lidarer mekaniske deler – roterende speil og motorer – noe som gjør dem mer utsatt for svikt og utskifting.

Kameraer er derimot statiske. De har ingen bevegelige deler, er mye mer pålitelige og kan fungere i flere tiår inntil huset brytes ned eller linsen blir svakere. Dessuten er kameraer enklere å integrere i en bils design: de kan skjules inne i karosseriet, noe som gjør dem nesten usynlige.

Produksjonsmetodene er også betydelig forskjellige. Waymo bruker en eksisterende plattform – en produksjonsmodell av Jaguar – som sensorer er montert på. De har ikke noe valg. Tesla, derimot, produserer kjøretøy fra bunnen av og kan planlegge sensorintegrasjon i karosseriet fra starten av, og dermed skjule dem. Formelt sett vil de være oppført i spesifikasjonene, men visuelt vil de være nesten usynlige.

For tiden bruker Tesla åtte kameraer rundt bilen – foran, bak, i sidespeilene og dørene. Vil de bruke flere sensorer? Jeg tror det.

Basert på min erfaring som Tesla-sjåfør som også har kjørt Waymo-biler, tror jeg at integrering av lidar ville forbedre Teslas full selvkjørende system. Jeg synes at Teslas FSD for øyeblikket mangler noe nøyaktighet under kjøring. Å legge til lidarteknologi kan forbedre evnen til å navigere i utfordrende forhold som betydelig solskinn, svevestøv eller tåke. Denne forbedringen kan potensielt gjøre systemet tryggere og mer pålitelig sammenlignet med å bare stole på kameraer.

Men fra et forretningsperspektiv, når et selskap utvikler sin egen teknologi, sikter det mot et konkurransefortrinn – et teknologisk forsprang. Hvis det kan skape en løsning som er dramatisk mer effektiv og billigere, åpner det døren for markedsdominans.

Tesla følger denne logikken. Musk ønsker ikke å gå i samme retning som andre selskaper som Volkswagen eller Baidu, som også har gjort betydelige fremskritt. Selv systemer som Mobileye og iSight, installert i eldre biler, viser allerede anstendig autonomi.

Men Tesla har som mål å være unik – og det er forretningslogikk. Hvis du ikke tilbyr noe radikalt bedre, vil ikke markedet velge deg.

CEO og Сo-grunnlegger av Keymakr — et dataannoteringsselskap, og Keylabs.ai — en datakommentarplattform. Michael er en teknologientusiast og lidenskapelig utforsker av det ekstraordinære og innovasjon. Han har brukt mange hatter samtidig som han har beholdt dyp ekspertise på nøkkelområder. Som programvareingeniør med erfaring innen datainnsamling og bakgrunn som R&D-leder har Michael et sterkt fundament i både tekniske og strategiske roller, og jobber tett med produktutvikling og AI-drevne løsninger. Michael støtter startups og bedrifter i å avgrense forretningsdriften, oppnå produktmarkedstilpasning og drive akselerert vekst. Å jobbe med kunstig intelligens og merknader gjør at han kan engasjere seg direkte i ulike bransjer – fra bilindustrien til landbruket – og spille en rolle i å drive frem deres fremskritt og gjennombrudd.