Connect with us

Iceotope zabezpiecza 26 mln dolarów w ramach rundy finansowania serii B, gdy infrastruktura AI napotyka problemy z układami chłodzenia

Finansowanie

Iceotope zabezpiecza 26 mln dolarów w ramach rundy finansowania serii B, gdy infrastruktura AI napotyka problemy z układami chłodzenia

mm

Brytyjski specjalista w dziedzinie chłodzenia cieczą, Iceotope, zebrał 26 milionów dolarów w ramach rundy finansowania serii B, ponieważ popyt na infrastrukturę AI nadal powoduje problemy z tradycyjnymi metodami chłodzenia w centrach danych.

Rundę tę poprowadziły Barclays Climate Ventures oraz Two Seas Capital, z udziałem istniejących inwestorów, w tym Edinv, ABC Impact, Northern Gritstone oraz British Business Bank.

Firma oświadczyła, że nowy kapitał zostanie wykorzystany do rozwinięcia inżynierii i rozwoju produktów, powiększenia portfela patentowego oraz pogłębienia partnerstw w ekosystemie infrastruktury AI. Finansowanie to następuje w kluczowym momencie dla branży, gdy coraz to bardziej energochłonne przyspieszacze AI i klastry GPU powodują, że gęstości stojaków osiągają poziomy, których tradycyjne systemy chłodzenia powietrzem mają trudności z obsłużeniem.

Rozwój AI tworzy problem termiczny

Gwałtowny rozwój generatywnej sztucznej inteligencji stworzył wyzwanie infrastrukturalne, które sięga daleko poza samą moc obliczeniową. Współczesne serwery AI zużywają ogromne ilości energii, a ciepło wytwarzane przez gęste wdrożenia GPU stało się jednym z największych problemów w skalowaniu centrów danych AI.

Badacze branży z SemiAnalysis przewidują, że pojemność przyspieszaczy AI chłodzonych cieczą może wzrosnąć z około 3 GW do 40 GW w ciągu dwóch lat, gdy hyperscalery i dostawcy usług kolokacji skalują wdrożenia AI.

Iceotope uważa, że konwencjonalne architektury chłodzenia są bliskie osiągnięcia swoich praktycznych limitów. Chociaż chłodzenie bezpośrednio na układzie scalonym zyskało na popularności, firma twierdzi, że chłodzenie tylko procesorów nie jest już wystarczające dla następnych systemów AI, w których pamięć, magazynowanie, sieci i dostawa mocy również generują znaczne obciążenia cieplne.

Ten problem staje się jeszcze bardziej wyraźny poza centrami danych hyperskali. Gdy obciążenia AI coraz częściej przenoszą się do środowisk przedsiębiorstw i wdrożeń na brzegu, organizacje muszą radzić sobie z problemem eksploatacji wysokowydajnych systemów w miejscach, które nie posiadają specjalistycznej infrastruktury chłodzenia.

Inny podejście do chłodzenia cieczą

Założona w 2005 roku Iceotope rozpoczęła się jako przedsięwzięcie badawcze „zielonego komputowania”, aby następnie rozwinąć się w specjalistę w dziedzinie precyzyjnego chłodzenia cieczą dla infrastruktury AI, środowisk HPC oraz komputingu na brzegu.

Zamiast polegać wyłącznie na płytach chłodzących przyłączonych do procesorów, Iceotope wykorzystuje podejście „direct-to-everything”, które polega na cyrkulacji nieprzewodzącej cieczy dielektrycznej przez hermetyczne projekty obudowy, które chłodzą wszystkie główne elementy wytwarzające ciepło wewnątrz serwera.

Firma twierdzi, że ten projekt pozwala na bardziej efektywną eksploatację infrastruktury, redukuje zużycie wody oraz obniża ogólne zużycie energii w porównaniu z tradycyjnymi systemami chłodzenia powietrzem. Iceotope podkreśla również, że jej systemy chłodzenia są zaprojektowane do pracy w szerokim zakresie środowisk, w tym wdrożeniach przedsiębiorstw, środowiskach przemysłowych oraz lokalizacjach na brzegu, gdzie zarządzanie cieplne jest szczególnie trudne.

Według firmy jej technologia może zmniejszyć zużycie energii o do 40% oraz zużycie wody o do 96% w porównaniu z konwencjonalnymi metodami chłodzenia.

Patenty i partnerstwa ekosystemowe

Istotną częścią strategii Iceotope jest rozwój własności intelektualnej oraz integracja z ekosystemem. Firma ogłosiła niedawno, że przekroczyła liczbę 200 udzielonych i oczekujących patentów związanych z technologiami chłodzenia cieczą, w tym architekturą obudowy, systemami cieczy dielektrycznej oraz zarządzaniem cieplnym na poziomie stojaka.

Iceotope buduje również partnerstwa z producentami sprzętu, hyperskalerami oraz dostawcami infrastruktury. Jej technologia była prezentowana obok systemów firm takich jak Intel, HPE oraz Giga Computing w ostatnich latach.

Szeroki rynek infrastruktury AI coraz bardziej koncentruje się na zrównoważonym rozwoju oraz wydajności. Chłodzenie już teraz stanowi znaczącą część zużycia energii w centrach danych, a operatorzy są pod presją, aby zmniejszyć zarówno zużycie energii, jak i zapotrzebowanie na wodę, gdy wdrożenia AI skalują się na całym świecie.

Chłodzenie staje się podstawowym elementem przyszłości infrastruktury AI

Gdy systemy AI nadal skalują się, zarządzanie cieplne staje się coraz bardziej jednym z definiujących ograniczeń inżynieryjnych nowoczesnego komputowania. Przyszłe klastry AI będą prawdopodobnie zużywać dramatycznie więcej energii niż tradycyjna infrastruktura przedsiębiorstw, zmuszając branżę do ponownego rozważenia, jak serwery, urządzenia sieciowe oraz przyspieszacze są fizycznie projektowane i wdrożone.

Ta zmiana może mieć implikacje daleko wykraczające poza centra danych hyperskali. Zaawansowane technologie chłodzenia mogą ostatecznie wpłynąć na to, gdzie systemy AI mogą działać, umożliwiając obliczenia o wysokiej gęstości w środowiskach, które wcześniej były niepraktyczne ze względu na ciepło, hałas lub ograniczenia zasilania. Obejmuje to miejsca przemysłowe, szpitale, infrastrukturę telekomunikacyjną, środowiska obronne oraz wdrożenia na brzegu, gdzie konwencjonalne systemy chłodzenia są trudne do utrzymania.

Przełom ten może również zmienić ekonomiczne aspekty infrastruktury AI. Gdy zużycie energii rośnie wraz z adopcją AI, poprawy efektywności w chłodzeniu mogą stać się coraz bardziej istotne dla kontroli kosztów operacyjnych, redukcji zużycia wody oraz spełniania celów środowiskowych. Z czasem zarządzanie cieplne może ewoluować z problemu inżynieryjnego w tle w kierunku majorowego czynnika konkurencyjnego, wpływającego na to, jak i gdzie usługi AI są dostarczane.

Antoine jest wizjonerskim liderem i współzałożycielem Unite.AI, z niezachwianą pasją do kształtowania i promowania przyszłości sztucznej inteligencji i robotyki. Jako serialowy przedsiębiorca, uważa, że sztuczna inteligencja będzie tak samo przełomowa dla społeczeństwa, jak elektryczność, i często zachwycany jest potencjałem technologie przełomowych i AGI. Jako futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupiającej się na inwestowaniu w najnowocześniejsze technologie, które przeobrażają przyszłość i zmieniają całe sektory.