Finansiering
Iceotope sikrer 26 millioner dollars i serie B, da AI-infrastrukturer presser kølesystemer til deres grænser

Den britisk-baserede specialist i væskekøling, Iceotope, har sikret 26 millioner dollars i en serie B-finansieringsrunde, da efterspørgslen efter AI-infrastruktur fortsætter med at belaste traditionelle datacenter-kølemetoder.
Runden blev ledet af Barclays Climate Ventures og Two Seas Capital, med deltagelse fra eksisterende investorer, herunder Edinv, ABC Impact, Northern Gritstone og British Business Bank.
Selskabet har udtalt, at den nye kapital vil blive brugt til at udvide ingeniørarbejde og produktudvikling, udvide patentporteføljen og dykke dybere ind i partnerskaber på tværs af AI-infrastrukturen. Finansieringen kommer på et afgørende tidspunkt for branchen, da stadig mere krævende AI-acceleratorer og GPU-klynger presser rack-densiteterne mod niveauer, som konventionelle luftkølingssystemer har svært ved at håndtere.
AI’s vækst skaber et termisk problem
Den hurtige udvidelse af generativ AI har skabt en infrastrukturudfordring, der går langt ud over beregningskraft alene. Moderne AI-servere forbruger enorme mængder elektricitet, og varmen genereret af tætte GPU-udviklinger er blevet en af de største flaskehalse i skalaen af AI-datacentre.
Brancheforskere hos SemiAnalysis projekterer, at kapaciteten for væskekøling af AI-acceleratorer kan vokse fra cirka 3 GW til 40 GW inden for to år, da hyperscalere og colocation-udbydere skalerer AI-udviklinger.
Iceotope mener, at konventionelle kølearkitekturer nærmer sig deres praktiske grænser. Selv om direkte-til-chip-væskekøling har vundet frem, argumenterer selskabet for, at køling af kun processorer ikke længere er tilstrækkeligt for næste generations AI-systemer, hvor hukommelse, lagring, netværk og strømforsyningskomponenter også genererer betydelige varmebelastninger.
Denne udfordring bliver endnu mere udtalt uden for hyperskala-datacentre. Da AI-arbejdsbelastninger i stigende grad flytter sig mod enterprise-miljøer og edge-udviklinger, står organisationer over for problemet med at operere højtydende systemer på steder, der mangler specialiseret køleinfrastruktur.
En anden tilgang til væskekøling
Iceotope blev grundlagt i 2005 og startede som et forskningsbaseret “grønt computing”-firma, før det udviklede sig til en specialist i præcis væskekøling for AI-infrastruktur, HPC-miljøer og edge-computing.
I stedet for kun at afhænge af kolde plader, der er fastgjort til processorer, bruger Iceotope, hvad de kalder en “direkte-til-alt”-køletilgang. Deres systemer cirkulerer ikke-lede dielektrisk væske gennem forseglede chassis-designs, der køler alle større varmeproducerende komponenter inde i serveren.
Selskabet siger, at denne design tillader infrastruktur at køre mere effektivt, samtidig med at det reducerer vandforbruget og den samlede energiforbrug i forhold til traditionelle luftkølingssystemer. Iceotope understreger også, at deres kølesystemer er designet til at fungere i en bred vifte af miljøer, herunder enterprise-udviklinger, industrielle indstillinger og edge-locater, hvor termisk ledelse er særligt svær.
Ifølge selskabet kan deres teknologi reducere energiforbruget med op til 40% og vandforbruget med op til 96% i forhold til konventionelle kølemetoder.
Patent og økosystem-partnerskaber
En stor del af Iceotopes strategi drejer sig om immaterielle rettigheder og økosystem-integration. Selskabet har nylig annonceret, at det har overgået 200 tildelte og ventende patenter relateret til væskekølingsteknologier, herunder chassis-arkitektur, dielektrisk væske-systemer og rack-skala termisk ledelse.
Iceotope har også bygget partnerskaber med hardware-fabrikanter, hyperscalere og infrastruktur-udbydere. Deres teknologi er blevet fremhævet sammen med systemer fra selskaber som Intel, HPE og Giga Computing i de seneste år.
Den bredere AI-infrastrukturmarked er i stigende grad fokuseret på bæredygtighed samt ydeevne. Køling står allerede for en betydelig andel af datacenter-energiforbrug, og operatører er under pres for at reducere både energiforbrug og vandkrav, da AI-udviklinger skalerer globalt.
Køling bliver grundlæggende for fremtidens AI-infrastruktur
Da AI-systemer fortsætter med at skale, bliver termisk ledelse i stigende grad en af de definerende ingeniør-beslutninger i moderne computing. Fremtidige AI-klynger forventes at forbruge dramatisk mere strøm end traditionel enterprise-infrastruktur, hvilket tvinger branchen til at overveje, hvordan servere, netværksudstyr og acceleratorer fysisk er designet og udviklet.
Dette skift kan have implikationer langt ud over hyperskala-datacentre. Avancerede køleteknologier kan måske påvirke, hvor AI-systemer kan operere, og muliggøre højtydende beregninger i miljøer, der tidligere var umulige på grund af varme, støj eller strømbegrænsninger. Det inkluderer industrielle steder, hospitaler, telesystemer, forsvars-miljøer og edge-udviklinger, hvor konventionelle kølesystemer er svære at vedligeholde.
Overgangen kan også omforme økonomien i AI-infrastruktur selv. Da energiforbruget stiger sammen med AI-adoptionsgraden, kan effektivitetsforbedringer i køling blive stadig vigtigere for at kontrollere driftsomkostninger, reducere vandforbruget og opfylde miljømæssige mål. Over tid kan termisk ledelse udvikle sig fra en backend-ingeniør-problem til en stor konkurrenciefaktor, der påvirker, hvordan og hvor AI-tjenester leveres.












