Finansiering
Iceotope sikrer 26 millioner dollar i serie B-finansiering da AI-infrastruktur presses kjølesystemer til grensene

UK-basert spesialist på væskeavkjøling, Iceotope, har samlet inn 26 millioner dollar i en serie B-finansieringsrunde, da etterspørselen etter AI-infrastruktur fortsatt setter tradisjonelle datasenteravkjølingsmetoder under press.
Runden ble ledet av Barclays Climate Ventures og Two Seas Capital, med deltakelse fra eksisterende investorer, inkludert Edinv, ABC Impact, Northern Gritstone og British Business Bank.
Selskapet sa at den nye kapitalen vil bli brukt til å utvide ingeniør- og produktutvikling, vokse patentporteføljen og dykke dyptere inn i partnerskap over hele AI-infrastrukturekosystemet. Finansieringen kommer på et avgjørende tidspunkt for industrien, da stadig mer strømhungrende AI-akseleratorer og GPU-kluster presser hyller tetthet mot nivåer som konvensjonelle luftavkjølingssystemer sliter med å håndtere.
AI-veksten skaper et termisk problem
Den raske utvidelsen av generativ AI har skapt en infrastrukturutfordring som strekker seg langt utenfor beregningskraft alene. Moderne AI-tjenere forbruker enorme mengder strøm, og varmen generert av tetthet i GPU-utplasseringer er blitt en av de største flaskeneckene i å skalerer AI-datasentre.
Industri-forskere ved SemiAnalysis projiserer at væskeavkjølet AI-akselerator-kapasitet kan vokse fra omtrent 3 GW til 40 GW innen to år, da hyperskalerte og colocation-tilbydere skalerer AI-utplasseringer.
Iceotope mener at konvensjonelle avkjølingsarkitekturer nærmer seg sine praktiske grenser. Mens direkte-til-chip-væskeavkjøling har fått mer popularitet, argumenterer selskapet for at avkjøling av bare prosessorer ikke lenger er tilstrekkelig for neste generasjons AI-systemer, hvor minne, lagring, nettverk og strømleveringskomponenter også genererer betydelige varmebelastninger.
Denne utfordringen blir enda mer tydelig utenfor hyperskale-datasentre. Ettersom AI-arbeidsbelastninger stadig mer flytter mot bedriftsmiljøer og edge-utplasseringer, står organisasjonene overfor problemet med å drive høy-ytelsessystemer i lokasjoner som mangler spesialisert avkjølingsinfrastruktur.
En annen tilnærming til væskeavkjøling
Iceotope ble etablert i 2005 og startet som et forskningsbasert “grønt dataspill”-prosjekt før det utviklet seg til en spesialist på presisjon væskeavkjøling for AI-infrastruktur, HPC-miljøer og edge-computing.
I stedet for å bare bruke kalde plater festet til prosessorer, bruker Iceotope en “direkte-til-alt”-avkjølingsmetode. Deres systemer sirkulerer ikke-ledende dielektrisk væske gjennom lukkede chassis-design som avkjøler alle større varme-genererende komponenter inne i serveren.
Selskapet sier at denne designen tillater infrastruktur å kjøre mer effektivt samtidig som den reduserer vannforbruk og total energiforbruk sammenlignet med konvensjonelle luftavkjølingssystemer. Iceotope understreker også at deres avkjølingssystemer er designet for å fungere i en rekke miljøer, inkludert bedrifts-utplasseringer, industrielle omgivelser og edge-lokasjoner hvor termisk håndtering er særlig vanskelig.
Ifølge selskapet kan deres teknologi redusere energiforbruk med opptil 40% og vannforbruk med opptil 96% sammenlignet med konvensjonelle avkjølingsmetoder.
Patenter og økosystem-partnerskap
En stor del av Iceotopes strategi handler om intellektuell eiendom og økosystem-integrasjon. Selskapet annonserte nylig at det har gått over 200 innvilgede og ventende patenter relatert til væskeavkjølingsteknologier, inkludert chassis-arkitektur, dielektrisk væske-systemer og rack-skala termisk håndtering.
Iceotope har også bygget partnerskap med maskinvareprodusenter, hyperskalerte og infrastruktur-tilbydere. Deres teknologi har blitt vist frem sammen med systemer fra selskaper som Intel, HPE og Giga Computing de siste årene.
Den bredere AI-infrastruktur-markedet fokuserer stadig mer på bærekraft samt ytelse. Avkjøling utgjør allerede en betydelig andel av datasenter-energiforbruk, og operatører er under press for å redusere både strømforbruk og vannkrav samtidig som AI-utplasseringer skalerer globalt.
Avkjøling blir grunnleggende for fremtidens AI-infrastruktur
Ettersom AI-systemer fortsetter å skalerer, blir termisk håndtering stadig mer en av de avgjørende ingeniør-utfordringene i moderne databehandling. Fremtidige AI-kluster forventes å forbruke dramatisk mer strøm enn tradisjonell bedrifts-infrastruktur, og tvinger industrien til å omvurdere hvordan servere, nettverksutstyr og akseleratorer fysisk er designet og utplassert.
Dette skiftet kan ha implikasjoner langt utenfor hyperskale-datasentre. Avanserte avkjølingsteknologier kan til slutt påvirke hvor AI-systemer kan operere, og muliggjøre høy-tetthets beregning i miljøer som tidligere var upraktiske på grunn av varme, støy eller strøm-begrensninger. Dette inkluderer industrielle steder, sykehus, telesystemer, forsvars-miljøer og edge-utplasseringer hvor konvensjonelle avkjølingssystemer er vanskelige å vedlikeholde.
Overgangen kan også omforme økonomien i AI-infrastruktur selv. Ettersom energiforbruk øker sammen med AI-adoptsjon, kan effisiensforbedringer i avkjøling bli stadig viktigere for å kontrollere driftskostnader, redusere vannforbruk og møte miljømål. Over tid kan termisk håndtering utvikle seg fra et backend-ingeniør-problem til en stor konkurransefaktor som påvirker hvordan og hvor AI-tjenester leveres.












