Tankeledere
Kampen om eierskap av AI – Hvorfor dataSentre måtte mer enn noen gang

For noen år siden, dataSentre syntes å være noe rent teknisk og usynlig – infrastruktur skjult dypt i backend, sjelden diskutert utenfor profesjonelle kretser. Men den eksplosive veksten av AI har fullstendig endret dette bildet. I dag har dataSentre blitt den nye “oljebrønnen” i den digitale økonomien: en strategisk verdi rundt hvilken milliarder i investeringer, regjeringens politikker og bedriftsstrategier bygges.
Nylig nyheter bekrefter dette. Anthropic annonserte byggingen av sine egne dataSentre i USA, til en kostnad på 50 milliarder dollar, et beløp sammenlignbart med budsjettene for store energiprojekter. Nesten samtidig avslørte X.AI og Nvidia et fellesprosjekt i Saudi-Arabia, ett av de største dataSentrene i regionen.
Hvorfor har temaet dataSentre blitt så globalt? Hvorfor flytter store spillere bort fra rene sky-modeller og investerer titall milliarder i egen kapasitet? Og hvordan påvirker denne skiftet AI-arkitektur, energisystemer, geopolitikk og oppblomstringen av alternative modeller, fra Arktis til rom-baserte dataSentre?
Dette er hva kolonnen under utforsker.
Den globale oppblomstringen av interesse for å eie dataSentre
Når forbruket av beregningsressurser måles i millioner av dollar per år, er det faktisk mer kostnadseffektivt å leie skytjenester: bedrifter trenger ikke å bygge og vedlikeholde bygninger, betale for elektrisitet og kjøling, kjøpe utstyr eller oppgradere det regelmessig. Men når utgiftene når titall milliarder dollar, skifter logikken.
På dette punktet blir det mer kostnadseffektivt å bygge egne dataSentre, ansatte ingeniører, kjøpe utstyr og optimere infrastrukturen for sine spesifikke behov. Selskapet slutter å overbetale for skytjenesteleverandørenes marginer og får mye større kontroll over kostnaden og effektiviteten til beregningene.
Dette er hvorfor trenden med å bygge private dataSentre er mest relevant for gigantene som OpenAI eller Anthropic, selskaper hvis behov er så store at skytjenesten ikke lenger er økonomisk berettiget.
Samtidig er det viktig å forstå at konseptet “dataSentre” er flerskiktet. For noen selskaper er det primært et data-lagringsanlegg, disk, databaser og brukerinformasjon. For andre er det også et beregningshub: servere som kjører modeller som GPT, Claude eller LLaMA, samtidig som de lagrer data og utfører komplekse operasjoner. I virkeligheten er et dataSentre i dag et massivt teknologisk “lager” som huset tusenvis av spesialiserte datamaskiner.
Og jo høyere etterspørselen etter AI-kapasitet er, jo mer strategisk og debattert blir dette “lageret”, hvilket er hvorfor dataSentre nå diskuteres ikke bare av ingeniører, men også av investorer, politikere og toppledere.
Hva som teller mer i bygging av AI-dataSentre: hastighet eller kvalitet?
I virkeligheten er hverken byggingshastighet eller den formelle “kvaliteten” på et dataSentre den primære drivkraften. Store selskaper investerer i egen infrastruktur for å redusere kostnader og få maksimal kontroll over beregningene.
Kvaliteten på modellene selv bekymrer toppnivåspillerne langt mindre enn en kunne tro. Grunnen er enkel: kvalitetsgapet mellom markedets ledere er minimalt. Det er veldig likt bilindustrien: Volkswagen, Toyota, Honda – alle forskjellige, men ingen kan trekke langt enough foran å monopolisere markedet. Hver beholder sin stabile andel.
AI-markedet følger en lignende logikk. Avanserte brukere bruker allerede flere modeller samtidig: en for programmering, en annen for tekstgenerering, en tredje for analyse eller søk. Kunder i bedrifter gjør det samme. For eksempel har tjenester som Grammarly ikke sine egne modeller overhodet. De kjøper token fra flere leverandører, Anthropic, OpenAI, Meta. Når en forespørsel kommer inn, velger systemet automatisk leverandøren: den som for tiden er billigst, raskest eller mest nøyaktig. Hvis teksten er på engelsk – går den til GPT; hvis den er på hindi – til Claude; hvis LLaMA for tiden har de laveste ratene – går den der. Dette er i virkeligheten en aksje-børs-lignende last-distribusjonsmodell.
I samtaler med bedriftskunder av Keymakr, ser jeg stadig mer den samme trenden: store selskaper har forlengst forlatt “en modell – en leverandør”-tilnærmingen. De bygger multi-modell-pipelines hvor forespørsler blir sendt mellom forskjellige AI-systemer avhengig av kostnad, latency eller språkspesifikum. Men denne arkitekturen stiller betydelig høyere krav til data, spesielt til dens renhet, annotering, validering og konsistens. I denne forstand blir data-infrastrukturen like strategisk som dataSentrene selv: uten høykvalitetsinndata fungerer ikke et multi-modell-system.
Til slutt, i denne arkitekturen, blir modellkvaliteten bare ett av mange parametre. Nøkkel er å opprettholde hastighet, skalerbarhet og evnen til å håndtere massive beregningsbelastninger. Og dette er nettopp hva som gir private dataSentre deres strategiske verdi: de lar selskapene kontrollere kostnader, gjennomstrømming og stabilitet, samtidig som de har liten innvirkning på den endelige modellkvaliteten.
Med andre ord, i dag bygger selskaper dataSentre ikke for hastighet eller perfekt kvalitet, men for økonomi og kontroll.
Geografien til data
Med “kontroll” mener jeg geografien til data. Hvis et selskap arbeider med regjeringer, forbudt loven ofte data fra å forlate landet. Regjeringer og kvasi-militære anvendelser bruker aktivt AI i etterretning, forsvar IT-enhetene og kommunale tjenester. Men det er umulig å gi disse systemene tilgang til en modell hvis dataSentret er plassert i en region med usikker jurisdiksjon eller lav tillit. Derfor krever regjeringer at beregningskapasiteten må være fysisk plassert innenfor landet.
Store selskaper forstår dette perfekt. Hvis de ønsker å delta i regjeringskontrakter, signere avtaler eller prosessere følsomme data, trenger de infrastruktur i bestemte regioner og evnen til å garantere overholdelse av sikkerhetsstandarder. Denne geografiske begrensningen påvirker også en annen kritisk faktor i bygging og drift av dataSentre – energi.
AI-dataSentre forbruker enorme mengder elektrisitet, både for å kjøre servere og for å kjøle dem. Kjøling kan ofte koste mer enn beregningen selv. Dette skaper strenge begrensninger. I noen regioner er dataSentre begrenset til å trekke en bestemt mengde kraft fra nettet; i andre er varmeutslipp til miljøet strengt regulert. Å overskride grensene resulterer i bøter og dyre ingeniør-oppraderinger.
I tillegg kjøpes elektrisitet hovedsakelig fra statseide energiselskaper, som har sine egne tariffstrukturer. Du kan ikke bare “kjøpe så mye du vil”. For eksempel, opp til en bestemt terskel, er prisen en rate; over det, en annen. Hvis et dataSentre trekker mer kraft enn tillatt under topp-perioder, incurerer det automatisk bøter. Derfor finner store selskaper ofte det mer økonomisk å bygge egne dataSentre nær sine egne kraftverk.
Dette fører naturlig til tanken om å utvikle privat kraftgenerering, som sol-farme, gass-drevne anlegg eller små vannkraftverk. Men alle disse løsningene har begrensninger. Gass- og kullkraftverk produserer utslipp. Vannkraft endrer elve-økosystemer. Kjerneenergi er den reneste i forhold til utslipp, men bare regjeringer kan bygge kjernekraftverk.
Og det er nettopp på dette punktet at nye konsepter begynner å dukke opp…
Alternative løsninger
Den mest åpenbare løsningen er å flytte dataSentre til regioner med naturlig kalde klima, som det nordlige Canada, de nordlige territoriene i Skandinavia eller fjerne områder i Arktis. Der løser naturen selv kjølingsproblemet, og drastisk reduserer driftskostnadene.
Neste skritt er “under-vanns dataSentre”. Beregning skjer under vann, med det kalde marine miljøet som gir naturlig kjøling. Men denne tilnærmingen har også ulemper. Miljøvernere har allerede reist bekymringer. For eksempel, nær sørlige Island, hvor Golfstrømmen passerer, har noen foreslått at stor-skala-deployment av under-vanns dataSentre kunne påvirke lokale klimaprosesser, potensielt endre havstrøm-atferd. Første observasjoner av slike avvik har allerede blitt registrert.
Det finnes også mer futuristiske alternativer. Nylig diskuterte jeg konseptet om rom-baserte dataSentre med kolleger. Idéen om å lansere beregnings-infrastruktur i bane har eksistert lenge; imidlertid har teknologien nå bragt det til randen av praktisk gjennomførbarhet, med en ferdig teknisk grunnlag.
Hvorfor ser rom ut som et attraktivt alternativ? Det løser umiddelbart to store begrensninger: kjøling og elektrisitet. Temperaturer i nærområdet i rommet er ekstremt lave, noe som gjør varme-avledning nesten gratis. Elektrisitet er heller ikke et problem: massive sol-paneler kan deployeres, likt rom-teleskopene som folder ut sine speil. I rommet er det ingen støv, ingen vær, ingen skygge. Panelet gir stabil kraft rundt uret med nesten ingen vedlikehold kreves.
Kommunikasjon med Jorden er en separat ingeniør-utfordring, men det er fullstendig løsbart. En tilnærming er å bruke satellitt-systemer som Starlink, men med mye bredere kanaler. Radio-lenker kan i prinsippet håndtere disse volumene, og optiske lenker, lys-baserte kanaler med enormt båndbredde, kan brukes hvis nødvendig. Ingenicører vil definitivt finne en løsning her.
I alt er rom-infrastruktur mer en fremtidig utviklingsgren, men å diskutere det ser ikke lenger ut som science fiction, spesielt ettersom etterspørselen etter beregning vokser mye raskere enn ny kapasitet på Jorden.
Det er verdt å merke seg de nyeste nyhetene: Google annonserte sitt Suncatcher-prosjekt, som har som mål å skape AI-rom-dataSentre. Ifølge planen skal satellitter utstyrt med TPU-chipper bli drevet av solenergi og overføre data gjennom optiske kanaler. Google hevder at denne løsningen kunne gi opp til åtte ganger større energiproduksjonseffektivitet enn terrestriske systemer. De første satellitt-prototyper er planlagt for lansering så tidlig som 2027.
Virkingen av reguleringer
Når det gjelder reguleringer som påvirker dataSentre, deres miljøpåvirkning og om lovgivningsrammene kunne faktisk “skyve” denne markedet inn i rommet eller under vann, forblir spørsmålet åpent.
Hver land handler forskjellig, implementerer reguleringer i henhold til sine langtidsplaner. Det er ingen hemmelighet at Europa, for eksempel, har strengere regler, som bremser AI-utviklingen. USA, på den andre siden, tar en mer pragmatisk tilnærming: lovene skrives vanligvis for å tillate innovasjon og vekst å fortsette. En sterk teknologi-lobby i California, hjem til selskaper som Nvidia, Apple, Microsoft og Meta, gjør det usannsynlig at det blir et totalt forbud mot AI. Det betyr at teknologien vil fortsette å utvikle seg.
Vi lever i en tid hvor “å tenke utenfor boksen” dyrkes både i Vesten og Asia, og eksemplene til Elon Musk og Steve Jobs fortsetter å inspirere ambisiøse prosjekter. Så, kanskje beregning i rommet er det neste logiske skrittet etter alt.










