Tankeledere
Hvordan man ikke koger havene med AI
Da vi navigerer på kunstig intelligens’ front, finder jeg mig selv konstant reflekterende over teknologiens dobbelte natur, som vi er med til at bane vejen for. AI er i sin essens ikke bare en samling af algoritmer og datasets; det er en manifestation af vores kollektive ingeniørvirksomhed, rettet mod at løse nogle af de mest intrikate udfordringer, som menneskeheden står over for. Dog, som medstifter og CEO af Lemurian Labs, er jeg meget bevidst om den ansvar, der følger med vores kapløb mod at integrere AI i dagliglivets væv. Det nøder os til at spørge: hvordan kan vi udnytte AI’s uendelige potentiale uden at kompromittere med planetens sundhed?
Innovation med en side af global opvarmning
Teknologisk innovation kommer altid på bekostning af bivirkninger, som man ikke altid tager med i betragtning. I tilfældet af AI i dag, kræver det mere energi end andre typer af computing. Den Internationale Energiagentur rapporterede for nylig, at træning af en enkelt model bruger mere elektricitet end 100 amerikanske hjem forbruger i løbet af et helt år. All den energi kommer på bekostning, ikke kun for udviklere, men for vores planet. For blot sidste år nåede energirelaterede CO2-udledninger et rekordhøjt niveau på 37,4 milliarder tons. AI er ikke ved at gå i stå, så vi må spørge os selv – er den energi, der kræves for at drive AI, og de resulterende implikationer for vores planet, værd at det? Er AI mere vigtig end at kunne trække vejret af vores egen luft? Jeg håber, vi aldrig når til et punkt, hvor det bliver en realitet, men hvis intet ændrer sig, er det ikke langt væk.
Jeg er ikke alene i min opfordring til mere energoeffektivitet på tværs af AI. Ved den seneste Bosch Connected World Conference bemærkede Elon Musk, at med AI er vi “på kanten af sandsynligvis den største teknologiske revolution, der nogensinde har eksisteret,” men udtrykte, at vi kunne begynde at se el-mangel allerede næste år. AI’s energiforbrug er ikke kun et teknisk problem, det er et globalt problem.
At forestille sig AI som et komplekst system
For at løse disse ineffektiviteter må vi se på AI som et komplekst system med mange sammenhængende og bevægelige dele snarere end en selvstændig teknologi. Dette system omfatter alt fra de algoritmer, vi skriver, til bibliotekerne, compilerne, runtime-miljøerne, driverne, hardwaren, vi afhænger af, og den energi, der kræves for at drive det hele. Ved at antage denne holistiske synsvinkel kan vi identificere og adresse ineffektiviteter på hvert niveau af AI-udvikling, og baner vejen for løsninger, der ikke kun er teknologisk avancerede, men også miljømæssigt ansvarlige. At forstå AI som et netværk af sammenhængende systemer og processer oplyser vejen til innovative løsninger, der er lige så effektive som de er effektive.
En universel software-stack til AI
Den nuværende udviklingsproces for AI er meget fragmenteret, med hver hardware-type, der kræver en specifik software-stack, der kun kan køre på den enkelte enhed, og mange specialiserede værktøjer og biblioteker, der er optimeret til forskellige problemer, hvoraf de fleste er stort set inkompatible. Udviklere kæmper allerede med at programmere system-on-chips (SoCs) som f.eks. de i edge-enheder som mobiltelefoner, men snart vil alt, hvad der sker i mobile, ske i datacenteret, og blive hundred gange mere kompliceret. Udviklere må sy sammen og arbejde sig igennem et intrikat system af mange forskellige programmeringsmodeller, biblioteker for at få ydelse ud af deres stadig mere heterogene clusters, langt mere end de allerede har brug for. Og det er kun til træning. For eksempel er programmering og opnåelse af ydelse ud af en supercomputer med tusinder til titusinder af CPU’er og GPU’er meget tidskrævende og kræver meget specialiseret viden, og selv da bliver der meget tilbage på bordet, fordi den nuværende programmeringsmodel ikke kan skaleres til dette niveau, hvilket resulterer i excessiv energiforbrug, som kun vil blive værre, efterhånden som vi fortsætter med at skalerer modellerne.
Dette kræver en slags universel software-stack, der kan adresse fragmenteringen og gøre det simplere at programmere og få ydelse ud af stadig mere heterogen hardware fra eksisterende leverandører, samtidig med at det gør det lettere at blive produktiv på ny hardware fra nye aktører. Dette ville også fungere som en katalysator for innovation i AI og i computerarkitekturer, og øge antallet af brancher og anvendelser, der kan udnytte AI.
Efterspørgslen efter effektiv hardware
Ud over at implementere en universel software-stack, er det afgørende at overveje optimering af den underliggende hardware for bedre ydelse og effektivitet. Graphics Processing Units (GPU’er), der oprindeligt var designede til gaming, er på trods af at være enormt kraftfulde og nyttige, fulde af ineffektiviteter, som bliver mere åbenlyse, efterhånden som vi skalerer dem op til supercomputer-niveau i datacenteret. Den nuværende ubegrænsede skalering af GPU’er fører til forhøjet udviklingsomkostninger, mangel på hardware-tilgængelighed og en betydelig stigning i CO2-udledninger.
Disse udfordringer er ikke kun en enorm barriere for indgang, men deres impact føltes på tværs af hele industrien. For lad os være ærlige – hvis verdens største tech-virksomheder har svært ved at skaffe nok GPU’er og få nok energi til at drive deres datacenter, er der ingen håb for os andre.
En afgørende ændring
På Lemurian Labs oplevede vi dette førstehånds. Tilbage i 2018 var vi en lille AI-startup, der forsøgte at bygge en grundlæggende model, men den rene omkostning var uforsvarlig. Mængden af beregningskraft, der krævedes alene, var nok til at drive udviklingsomkostningerne op til et niveau, der var utilgængeligt, ikke kun for os som en lille startup, men for alle uden for verdens største tech-virksomheder. Dette inspirerede os til at ændre retning fra at udvikle AI til at løse de underliggende udfordringer, der gjorde det utilgængeligt.
Vi startede med at udvikle en helt ny grundlæggende aritmetik til at drive AI. Kaldet PAL (parallel adaptiv logarithm), gjorde denne innovative talsystem os i stand til at skabe en processor, der kunne opnå op til 20 gange større gennemløb end traditionelle GPU’er på benchmark-AI-arbejdsbyrder, samtidig med at den forbrugte halv så meget energi.
Vores urokkelige engagement i at gøre livet lettere for AI-udviklere, samtidig med at vi gør AI mere effektiv og tilgængelig, har ført os til at forsøge at løse løget og få en dybere forståelse af problemet. Fra at designe ultra-højpræstations- og effektive computerarkitekturer, der kan skaleres fra kanten til datacenteret, til at skabe software-stacks, der adresserer udfordringerne ved at programmere enkelt heterogene enheder til lager-størrelse-computere. Alt dette tjener til at aktivere hurtigere AI-udrulninger til en reduceret omkostning, øge udviklernes produktivitet, fremskynde arbejdsbyrder og samtidig forbedre tilgængelighed, fremme innovation, antagelse og lighed.
At opnå AI for alle
For at AI kan have en meningsfuld impact på vores verden, må vi sikre, at vi ikke ødelægger den i processen, og det kræver en grundlæggende ændring af, hvordan det udvikles. Omkostningerne og beregningskravene i dag tipper skævt i favør af en stor få, og skaber en enorm barriere for innovation og tilgængelighed, samtidig med at de dumpede massive mængder CO2 i vores atmosfære. Ved at tænke på AI-udvikling fra udviklernes og planetens synspunkt kan vi begynde at adresse disse underliggende ineffektiviteter for at opnå en fremtid for AI, der er tilgængelig for alle og miljømæssigt ansvarlig.
En personlig refleksion og opfordring til bæredygtig AI
Ideen om fremtiden for AI er en blanding af optimisme og forsigtighed. Jeg er optimistisk om AI’s transformative potentiale til at forbedre vores verden, men forsigtig om den betydelige ansvar, det medfører. Jeg forestiller mig en fremtid, hvor AI’s retning bestemmes ikke kun af vores teknologiske fremskridt, men af en fastholdenhed til bæredygtighed, lighed og inklusivitet. Som leder af Lemurian Labs er jeg drevet af en vision om AI som en afgørende kraft for positiv forandring, der prioriterer både menneskehedens opsving og miljøbevarelse. Denne mission går langt ud over at skabe overlegen teknologi; det handler om at bane vejen for innovationer, der er gavnlige, etisk lydefaste og understreger vigtigheden af tankefulde, skalerbare løsninger, der respekterer vores fælles aspirationer og planetens sundhed.
Da vi står på kanten af en ny æra i AI-udvikling, er vores opfordring til handling ubestridelig: vi må fremme AI på en måde, der bevidst overvejer vores miljømæssige impact og fremhæver det fælles bedste. Denne etos er hjørnestenen i vores arbejde på Lemurian Labs, og inspirerer os til at innovere, samarbejde og sætte en standard. “Lad os ikke kun bygge AI for innovationens skyld, men innovere for menneskeheden og vores planet,” opfordrer jeg, og inviterer den globale fællesskab til at deltage i at genskabe AI-landskabet. Sammen kan vi garantere, at AI opstår som et lyspunkt for positiv forandring, der giver menneskeheden og sikrer vores planet for fremtidige generationer.












