Connect with us

Tankeledere

Mega-modeller er ikke årsagen til beregningskrisen

mm

Hver gang en ny AI-model udkommer—GPT-opdateringer, DeepSeek, Gemini—ser folk på den reneste størrelse, kompleksiteten og, stadig mere, den beregningshungrende af disse mega-modeller. Antagelsen er, at disse modeller definerer ressourcebehovene for AI-revolutionen.

Den antagelse er forkert.

Ja, store modeller er beregningshungrende. Men den største belastning på AI-infrastrukturen kommer ikke fra en håndfuld mega-modeller—det kommer fra den stille udbredelse af AI-modeller på tværs af brancher, hver finjusteret til bestemte anvendelser, hver forbruger beregning i en hidtil uset skala.

Trods den potentielle vinder-tager-alt-konkurrence, der udvikler sig blandt LLM’erne, centraliserer AI-landskabet som helhed ikke—det fragmenterer. Hver virksomhed bruger ikke bare AI—de træner, tilpasser og udruller private modeller tilpasset deres behov. Det er den sidstnævnte situation, der vil skabe en infrastruktur-efterspørgselskurve, som cloud-udbydere, virksomheder og regeringer ikke er klar til.

Vi har set dette mønster før. Cloud konsoliderede ikke IT-arbejdsbyrden; det skabte et spredt hybrid-økosystem. Først var det server-spredning. Så VM-spredning. Nu? AI-spredning. Hver bølge af computing ledte til udbredelse, ikke forenkling. AI er ikke anderledes.

AI-spredning: Hvorfor fremtiden for AI er en million modeller, ikke en

Finans, logistik, cybersikkerhed, kundeservice, R&D—hver har sin egen AI-model optimeret til sin egen funktion. Organisationer træner ikke en AI-model til at styre deres hele operation. De træner tusinder. Det betyder mere træningscykler, mere beregning, mere lagringskrav og mere infrastruktur-spredning.

Dette er ikke teoretisk. Selv i brancher, der traditionelt er forsigtige med teknologisk adoption, accelererer AI-investeringerne. En rapport fra McKinsey i 2024 fandt, at organisationer nu bruger AI i gennemsnit i tre forretningsfunktioner, med manufacturing, supply chain og produktudvikling i spidsen (McKinsey).

Sundhedssektoren er et primækt eksempel. Navina, en startup, der integrerer AI i elektroniske sundhedsjournaler for at fremhæve kliniske indsighter, har lige fået 55 millioner dollars i serie C-finansiering fra Goldman Sachs (Business Insider). Energi er ikke anderledes—industriledere har lanceret Open Power AI Consortium for at bringe AI-optimering til net- og anlægsdrift (Axios).

Den beregningsbelastning, som ingen taler om

AI bryder allerede traditionelle infrastrukturmodeller. Antagelsen om, at cloud kan skala uendeligt for at støtte AI-vækst, er død forkert. AI skalerer ikke som traditionelle arbejdsbyrder. Efterspørgselskurven er ikke gradvis—den er eksponentiel, og hyperscalere holder ikke trit.

  • Kraftbegrænsninger: AI-specifikke datacentre bygges nu omkring krafttilgængelighed, ikke kun netværksbagben.
  • Netværksflaskehalse: Hybrid IT-miljøer bliver ustyrlige uden automation, som AI-arbejdsbyrder kun vil forværre.
  • Økonomisk pres: AI-arbejdsbyrder kan forbruge millioner på en enkelt måned, hvilket skaber finansielle usikkerheder.

Datacentre står allerede for 1% af den globale el-forbrug. I Irland forbruger de nu 20% af det nationale net, en andel, der forventes at stige betydeligt inden 2030 (IEA).

Tilføj til det den forestående pres på GPU’er. Bain & Company advarede nylig om, at AI-vækst sætter scenen for en halvleder-mangel, drevet af eksplosiv efterspørgsel efter datacenter-klasse-chips (Bain).

Imens vokser AI’s bæredygtighedsproblem. En analyse fra 2024 i Sustainable Cities and Society advarer om, at en vidt udbredt anvendelse af AI i sundhedssektoren kan betydeligt øge sektorens energiforbrug og CO2-udledning, medmindre det kompenseres af målrettede effektivitetsforbedringer (ScienceDirect).

AI-spredning er større end markedet—det er en statsmagtsspørgsmål

Hvis du tror, at AI-spredning er et virksomhedsproblem, tænk igen. Den mest betydningsfulde driver af AI-fragmentering ikke er den private sektor—det er regeringer og militær-forsvarsmyndigheder, der udruller AI i en skala, som ingen hyperscaler eller virksomhed kan matche.

Den amerikanske regering alene har udrullet AI i over 700 anvendelser på tværs af 27 myndigheder, dækkende efterretningsanalyse, logistik og mere (FedTech Magazine).

Canada investerer op til 700 millioner dollars for at udvide den nationale AI-beregningsevne, og lancerer en national udfordring for at styrke den suveræne datacenter-infrastruktur (Innovation, Science and Economic Development Canada).

Og der er stigende opfordringer til et “Apollo-program” for AI-infrastruktur—højliggende AI’s ophøjelse fra kommerciel fordel til national imperativ (MIT Technology Review).

Militær AI vil ikke være effektiv, koordineret eller optimeret til omkostninger—det vil blive drevet af nationale sikkerhedsdirektiver, geopolitisk hast og behovet for lukkede, suveræne AI-systemer. Selv hvis virksomheder indskrænker AI-spredning, hvem skal sige til regeringer, at de skal gå langsommere?

For når national sikkerhed er på spil, stopper ingen op for at spørge, om strømnettet kan klare det.

Herb Hogue er Chief Technology Officer i det globale systemintegrationsfirma Myriad360, og bringer mere end 25 års erfaring indenfor strategisk planlægning, teknologiintegration, innovation og global ledelse. Herbs ekspertise dækker finans, sundhedssektor, medier, konsulentvirksomhed, boligfinansiering og løsningsintegratorer. I Myriad360 leder han løsningsudbud, partnerskaber og styrer professionelle services for Cloud, AI, Netværk, Sikkerhed og Infrastruktur. Hans tidligere roller i Insight og PCM fremhæver hans evne til at drive betydelig vækst i cloudtjenester og datacenterløsninger. Han har en Bachelor of Science-grad i Cyber og Data Sikkerhed fra University of Arizona.