Finanziamenti
Iceotope ottiene 26 milioni di dollari nella serie B mentre l’infrastruttura di intelligenza artificiale spinge i sistemi di raffreddamento ai loro limiti

Il specialista britannico di raffreddamento a liquido Iceotope ha raccolto 26 milioni di dollari in una serie di finanziamenti B mentre la domanda di infrastruttura di intelligenza artificiale continua a mettere a dura prova i metodi di raffreddamento tradizionali dei data center.
Il round è stato guidato da Barclays Climate Ventures e Two Seas Capital, con la partecipazione di investitori esistenti tra cui Edinv, ABC Impact, Northern Gritstone e British Business Bank.
La società ha dichiarato che il nuovo capitale verrà utilizzato per espandere l’ingegneria e lo sviluppo del prodotto, aumentare il portafoglio di brevetti e approfondire le partnership nell’ecosistema dell’infrastruttura di intelligenza artificiale. Il finanziamento arriva in un momento cruciale per l’industria, poiché i sempre più potenti acceleratori di intelligenza artificiale e i cluster di GPU spingono le densità dei rack verso livelli che i sistemi di raffreddamento convenzionali faticano a gestire.
La crescita dell’intelligenza artificiale sta creando un problema termico
La rapida espansione dell’intelligenza artificiale generativa ha creato una sfida infrastrutturale che va ben oltre la sola potenza di calcolo. I server di intelligenza artificiale moderni consumano enormi quantità di elettricità e il calore generato dalle dense implementazioni di GPU è diventato uno dei principali colli di bottiglia nella scalabilità dei data center di intelligenza artificiale.
I ricercatori dell’industria di SemiAnalysis prevedono che la capacità degli acceleratori di intelligenza artificiale raffreddati a liquido potrebbe crescere da circa 3 GW a 40 GW nel giro di due anni, man mano che i fornitori di servizi hyperscale e di colocation scalano i deploy di intelligenza artificiale.
Iceotope ritiene che le architetture di raffreddamento convenzionali stiano raggiungendo i loro limiti pratici. Se il raffreddamento diretto a liquido dei chip ha guadagnato popolarità, la società sostiene che raffreddare solo i processori non è più sufficiente per i sistemi di intelligenza artificiale di prossima generazione, dove anche i componenti di memoria, archiviazione, rete e alimentazione generano carichi termici sostanziali.
Questa sfida diventa ancora più pronunciata al di fuori dei data center hyperscale. Man mano che i carichi di lavoro di intelligenza artificiale si spostano verso ambienti aziendali e deploy edge, le organizzazioni si trovano ad affrontare il problema di eseguire sistemi ad alte prestazioni in luoghi che non dispongono di infrastrutture di raffreddamento specializzate.
Un approccio diverso al raffreddamento a liquido
Fondata nel 2005, Iceotope è iniziata come un’impresa di ricerca focalizzata sul “green computing” prima di evolversi in un specialista di raffreddamento a liquido di precisione per l’infrastruttura di intelligenza artificiale, ambienti HPC e calcolo edge.
Iceotope utilizza un approccio di raffreddamento “diretto-a-tutto” che non si basa solo su piastre fredde attaccate ai processori. I suoi sistemi fanno circolare un fluido dielettrico non conduttivo all’interno di design di chassis sigillati che raffreddano tutti i principali componenti che producono calore all’interno del server.
La società afferma che questo design consente all’infrastruttura di funzionare in modo più efficiente, riducendo il consumo di acqua e l’uso complessivo di energia rispetto ai sistemi di raffreddamento aerea tradizionali. Iceotope sottolinea anche che i suoi sistemi di raffreddamento sono progettati per funzionare in un’ampia gamma di ambienti, compresi i deploy aziendali, gli ambienti industriali e le posizioni edge in cui la gestione termica è particolarmente difficile.
Secondo la società, la sua tecnologia può ridurre il consumo di energia fino al 40% e il consumo di acqua fino al 96% rispetto ai metodi di raffreddamento convenzionali.
Brevetti e partnership di ecosistema
Una parte importante della strategia di Iceotope ruota attorno alla proprietà intellettuale e all’integrazione dell’ecosistema. La società ha recentemente annunciato di aver superato i 200 brevetti concessi e in attesa di approvazione legati alle tecnologie di raffreddamento a liquido, comprese l’architettura del chassis, i sistemi di fluidi dielettrici e la gestione termica a livello di rack.
Iceotope ha anche costruito partnership con produttori di hardware, fornitori di servizi hyperscale e provider di infrastrutture. La sua tecnologia è stata presentata insieme a sistemi di aziende come Intel, HPE e Giga Computing negli ultimi anni.
Il mercato più ampio dell’infrastruttura di intelligenza artificiale si concentra sempre più sulla sostenibilità oltre che sulle prestazioni. Il raffreddamento rappresenta già una quota significativa del consumo di energia dei data center e gli operatori sono sotto pressione per ridurre sia l’uso di energia che i requisiti di acqua man mano che i deploy di intelligenza artificiale si espandono a livello globale.
Il raffreddamento diventa fondamentale per il futuro dell’infrastruttura di intelligenza artificiale
Man mano che i sistemi di intelligenza artificiale continuano a scalare, la gestione termica sta diventando sempre più una delle principali sfide di ingegneria della computazione moderna. Si prevede che i cluster di intelligenza artificiale futuri consumeranno drasticamente più potenza dell’infrastruttura aziendale tradizionale, costringendo l’industria a riconsiderare come vengono progettati e distribuiti fisicamente i server, le attrezzature di rete e gli acceleratori.
Questo passaggio potrebbe avere implicazioni che vanno ben oltre i data center hyperscale. Le tecnologie di raffreddamento avanzate potrebbero eventualmente influenzare dove possono essere eseguiti i sistemi di intelligenza artificiale, consentendo il calcolo ad alta densità in ambienti che in precedenza erano impraticabili a causa del calore, del rumore o dei limiti di potenza. Ciò include siti industriali, ospedali, infrastrutture di telecomunicazione, ambienti di difesa e deploy edge in cui i sistemi di raffreddamento convenzionali sono difficili da mantenere.
La transizione potrebbe anche ridisegnare l’economia dell’infrastruttura di intelligenza artificiale stessa. Man mano che il consumo di energia aumenta insieme all’adozione di intelligenza artificiale, i miglioramenti dell’efficienza nel raffreddamento potrebbero diventare sempre più importanti per il controllo dei costi operativi, la riduzione del consumo di acqua e il raggiungimento degli obiettivi ambientali. Nel tempo, la gestione termica potrebbe evolversi da un problema di ingegneria backend a un fattore di competizione importante che influenza come e dove vengono consegnati i servizi di intelligenza artificiale.












