Connect with us

Tankeledere

Det Hellige Gral for Beregningskraft i AI

mm

Trods fantastisk fremgang er artificial intelligenses evner stadig begrænsede i forhold til forventningerne i den virkelige verden. Vi bygger komplekse modeller, kører neurale netværk og tester algoritmer, men fremgangen standsner af og til på steder, vi mindst venter det.

Problemet ligger ofte ikke i algoritmerne eller data, men i beregningskraften, de ressourcer, der giver modellerne mulighed for at lære og fungere på det nødvendige niveau. Så hvad ligger bag denne barriere? Lad os undersøge den kritiske ressource, uden hvilken selv de mest lovende AI-projekter ikke kan komme ud af laboratoriet.

Beregningsunderskuddet og dets konsekvenser

For at forstå dette emne, lad os starte med historien om mobilkommunikation. Da 3G- og senere 4G-netværk opstod, var internettet allerede næsten globalt. Og da 5G blev introduceret, spurgte mange mennesker en fuldstændig rimelig spørgsmål: “Internettet bliver hurtigere – men så hvad?”

I virkeligheden handler øgningen af internethastighed ikke om brugerens bekvemmelighed. Den transformerer hele den teknologiske landskab. Brugstilfælde opstår, som tidligere var umulige. 5G viste sig at være langt hurtigere end 4G, og dette spring var ikke gradvist, som springet fra 1G til 2G, men eksponentielt. Som resultat heraf kan nye anvendelser, enheder og hele klasser af teknologi opstå.

Traffiklyskameraer, systemer til realtids-trafikanalyse og automatiserede trafikreguleringsmekanismer – alt dette bliver muligt takket være nye kommunikationsteknologier. Politiet får nye måder at udveksle data på, og i rummet kan teleskoper og satellitter transmittere enorme mængder af information til Jorden. Et kvalitetspring i en grundlæggende teknologi driver udviklingen af hele økosystemet.

Samme princip gælder for beregningskraft. Forestil dig, at menneskehedens samlede beregningskapacitet er i hypotetiske enheder. I dag har vi måske ti sådanne enheder. Med dem kan vi generere billeder og videoer, skrive tekster, lave markedsføringsmateriale… Dette er allerede betydeligt, men udvalget af anvendelser er hovedsageligt begrænset.

Forestil dig nu, at vi havde ikke ti, men tusind sådanne enheder. Pludselig bliver teknologier, der tidligere var for dyre, mulige, og startups, der blev opgivet på grund af høje beregningsomkostninger, begynder at give økonomisk mening.

Tag robotaxaer som eksempel. I dag afhænger de mest af relativt svage lokale computere, der er installeret i køretøjet. Men hvis videooptagelsen blev overført til skyen med enorme beregningsressourcer, kunne data blive behandlet og returneret i realtid. Og det er kritisk: en bil, der kører i 100 km/t, må træffe beslutninger på brøkdele af et sekund – køre ligeud, dreje, bremse eller ikke bremse.

Det er, når en fuldt fungerende robotaxi-industri bliver mulig, ikke kun isolerede løsninger som dem, vi ser i dag. Enhver lokal computer, der er installeret i en bil, er af natur begrænset på en måde, som en tilsluttet system ikke er. Jo hurtigere vi kan skalaere det, jo hurtigere vil verden omkring os ændre sig.

Adgang til chip og den “gyldne billet” i AI

I sammenhæng med beregningskraft opstår spørgsmålet: bliver adgangen til moderne chip den “gyldne billet” til at komme ind på AI-markedet? Skaber store spillere, der indgår kontrakter med chipfabrikanter eller producerer dem selv, en kløft mellem store virksomhedsfirmasamlinger og alle andre?

En sådan kløft opstår kun i ét tilfælde: hvis en forretningsmodel er fokuseret udelukkende på at sælge chip til store kunder. I praksis sigter fabrikanter som NVIDIA mod at tilbyde cloudløsninger til alle. Deres optimerede chip er tilgængelige i cloud til både OpenAI og uafhængige udviklere.

Selv strategiske alliancer mellem selskaber som Google, Anthropic, Microsoft, OpenAI, Amazon og NVIDIA er primært partnerskaber for fælles ressourceudnyttelse og ikke forsøg på at lukke markedet. Denne model muliggør en effektiv allokering af beregningskraft, hvilket fremmer teknologisk udvikling.

Hvis vi følger kæden af beregningsressourceanvendelse, begynder den med slutbrugeren. For eksempel, når du bruger WhatsApp til videoopkald og beskeder, skal virksomheden sørge for, at tjenesten fungerer: gemme og behandle data, køre modeller for videorensning, tilføje effekter og forbedre billedkvaliteten.

At vedligeholde egne servere er dyrt, de bliver forældede, og kræver konstant vedligehold. Derfor er cloudløsninger, “cloud”, opstået. Markedet domineres af tre spillere: Google Cloud, AWS og Microsoft Azure. Andre selskaber kan ikke konkurrere på dette niveau: skalaen af infrastruktur er for stor.

Cloudtjenester er enorme datacentre med køling, strømforsyning og døgnvagt. De huser servere og specialiserede chip fra NVIDIA, AMD og andre fabrikanter, hvilket muliggør storstilet beregningsprocesser.

Her kommer vi til det centrale spørgsmål, jeg diskuterede i min tidligere artikel om datacentre, og ønsker at fortsætte her: hvad er den primære flaskehals i dette system? Er det mangel på elektricitet eller vanskeligheden ved at køle datacentre i regioner, hvor klimaet gør det særligt udfordrende? I virkeligheden gemmer hemmeligheden sig i chip selv…

Det hellige gral

Hvorfor er NVIDIA i dag vurderet til omkring 5 billioner dollar og regnet blandt de mest succesfulde børsnoterede selskaber i verden? Årsagen er simpel: NVIDIA producerer chip, som AI-modellerne trænes og køres på.

Hver af disse chip forbruger enorme mængder af elektricitet, når de træner store modeller eller behandler stadig voksende mængder af data. Men hvor effektivt bliver denne energi brugt? Her kommer specialiserede chip til spil; de håndterer bestemte opgaver langt mere effektivt end generelle formålsgpu’er.

AI-modellerne adskiller sig. OpenAI har for eksempel en familie af modeller, Anthropic en anden. Koncepterne kan være lignende, men de matematiske strukturer og beregningsprocesser er forskellige. En enkelt generel formålsgpu, der træner OpenAI-modeller (som ChatGPT) versus Anthropic-modeller (som Claude), fungerer som et “one-size-fits-all-værktøj”, der forbruger, sige, 100.000 timers beregning for en model og 150.000 for en anden. Effektiviteten varierer betydeligt og er sjældent optimal.

Selskaber løser dette problem ved at producere specialiserede chip. For eksempel kan en chip være optimeret til ChatGPT-arkitekturen og træne den på, sige, 20 minutter, mens en anden er tilpasset Anthropics arkitektur og også gennemfører træningen på 20 minutter. Energiforbrug og træningstid reduceres flere gange i forhold til en generel formålsgpu.

Når disse chip sælges til store selskaber, som Google, Amazon, Microsoft eller Azure, tilbydes de som selvstændige produkter. Brugere kan vælge, for eksempel, en chip, der er optimeret til en YOLO-model eller en enklere, billigere chip til en Xen-arkitektur. På denne måde får selskaber adgang til beregningsressourcer, der er præcist tilpasset deres opgaver, i stedet for at købe generelle formålsgpu’er. Hvis en bruger har ti forskellige funktioner, kan de bruge ti forskellige specialiserede chip.

Trenden er tydelig: specialiserede chip erstatter langsomt generelle formålsgpu’er. Mange startups arbejder i dag med ASIC’er (Application-Specific Integrated Circuits), chip, der er designet til bestemte beregningsopgaver. De første ASIC’er opstod til Bitcoin-mining: initialt blev kryptovaluta mineret på NVIDIA-gpu’er, derefter blev chip skabt udelukkende til Bitcoin og var ude af stand til at udføre andre opgaver.

Jeg ser dette i praksis: samme hardwarekonfiguration kan producere helt forskellige resultater afhængigt af opgaven. I mit startup Introspector studerer vi disse processer i reelle projekter, og som strategisk rådgiver for Keymakr observerer jeg, hvordan kunderne opnår effektivitet fra specialiserede chip, der giver mulighed for, at modellerne kører hurtigere. Projekter, der tidligere stoppede under træning eller slutning, når stabile resultater med denne tilgang.

Men snæver specialisering medfører risici. En chip, der er optimeret til Anthropics arkitektur, vil ikke fungere til at træne OpenAI-modeller, og vice versa. Hver ny arkitektur kræver en ny generation af hardware, hvilket skaber en risiko for storstilet “afskrivning”. Hvis Anthropic udgiver en ny arkitektur i morgen, bliver alle tidligere generationers chip ueffektive eller ubrugelige. At producere nye chip koster milliarder af dollars og kan tage år.

Dette skaber en dilemma: skal vi producere specialiserede chip, der fungerer perfekt i et snævert scenario, eller skal vi fortsætte med at producere generelle formålsgpu’er, der løser alle opgaver moderat godt, men ikke kræver komplet erstatning, når arkitekturerne ændrer sig?

Effektivitet i denne sammenhæng måles ved tre primære parametre: køretid, elektricitetsforbrug og varmeproduktion. Disse parametre er direkte relaterede: jo længere et system kører, jo mere energi forbruger det, og jo mere varme producerer det. At reducere en parameter forbedrer automatisk de to andre.

Her ligger “det hellige gral” for AI-ydelse: hvis mindst en af de grundlæggende effektivitetsparametre kan optimeres, forbedrer de andre parametre næsten automatisk også.

Bæredygtig proces

Med den voksende brug af specialiserede chip er problemet med overproduktionsrisici blevet presserende. I øjeblikket er overskuddet af udstyr allerede betydeligt, og selskaberne håndterer dette spørgsmål på forskellige bæredygtige måder, herunder genbrug af eksisterende ressourcer.

Genbrug af udstyr er blevet en nøgleelement i bæredygtig udvikling i højteknologiske industrier. Chip indeholder betydelige mængder af ædel- og basismetaller, guld, kobber, aluminium, palladium og sjældne jordarter, samt materialer, der bruges i mikrochip og transistorer. Når udstyret bliver forældet, kan disse værdifulde ressourcer returneres til produktion, hvilket reducerer omkostningerne ved nye komponenter, samtidig med at industrens miljøaftryk reduceres.

Nogle specialiserede fabrikker og selskaber fokuserer på genbrug og udvinding af ædelmetaller fra forældede komponenter. For eksempel bruger nogle faciliteter hydrometallurgiske processer og avancerede kemiske metoder til at udvinde guld og kobber med høj renhed, hvilket giver mulighed for at genbruge disse materialer i nye chip.

Derudover implementerer selskaber lukkede modeller, hvor gammelt udstyr opgraderes eller integreres i nye løsninger, hvilket reducerer behovet for primær ressourceudvinding. Sådanne tilgange hjælper ikke kun med at minimere affald, men reducerer også produktionens carbonaftryk, da traditionel minedrift og metalbehandling kræver betydelig energi.

Bæredygtig håndtering af chip- og udstyrs livscyklus kunne blive en industriel standard, hvor teknologisk fremgang harmonerer med miljøansvar.

Michael Abramov er grundlægger og CEO af Introspector, og bringer mere end 15+ års erfaring med softwareingeniørarbejde og computer vision AI-systemer til udviklingen af virksomhedsklasse-etiketteringsværktøjer.

Michael begyndte sin karriere som softwareingeniør og R&D-chef, hvor han opbyggede skalerbare datasystemer og ledede tværfaglige ingeniørhold. Indtil 2025 har han fungeret som CEO af Keymakr, et data-etiketteringsservicefirma, hvor han var pioner inden for menneske-i-løkken-arbejdsgange, avancerede QA-systemer og tilpasset værktøj til at understøtte store skala-computer vision og autonomi databehov.

Han har en B.Sc. i datalogi og en baggrund i ingeniørarbejde og kreative kunstneriske fag, hvilket giver ham en tværfaglig indsigt i løsning af komplekse problemer. Michael befinder sig ved skæringen af teknologisk innovation, strategisk produktledelse og virkelige resultater, og driver fremad mod den næste front i autonome systemer og intelligent automation.