Connect with us

Prawdziwe Gardło Sztucznej Inteligencji: Moc, Chłodzenie i Fizyka Skali

Sztuczna inteligencja

Prawdziwe Gardło Sztucznej Inteligencji: Moc, Chłodzenie i Fizyka Skali

mm

Sztuczna inteligencja rozwijała się w nadzwyczajnym tempie przez minioną dekadę. Szybsze procesory graficzne, większe klastry i rewolucyjne architektury odblokowały przełomy, które wcześniej wydawały się niemożliwe. Jednakże, gdy przemysł dąży ku modelom o parametrach liczących biliony i fabrykom sztucznej inteligencji o skali hiperskali, następna bariera nie ma nic wspólnego z algorytmami. Prawdziwe gardło dzisiaj jest fizyczne: moc, chłodzenie i infrastruktura wymagana do utrzymania obliczeń na skalę planetarną.

Pytanie nie brzmi już, ile chipów można wyprodukować, ale czy można dostarczyć gigawaty, wodę i linie przesyłowe potrzebne do ich działania. Infrastruktura, a nie krzem, to co ustali tempo rozwoju sztucznej inteligencji w nadchodzących latach.

Gigawaty ponad Gigaflopsami

Projekt OpenAI „Stargate”, budowany z Oracle i SoftBank, ma docelowo osiągnąć niemal 7 gigawatów mocy na terenie całych Stanów Zjednoczonych — porównywalne do wielu reaktorów jądrowych. Na tej skali głównym wyzwaniem nie jest produkcja procesorów graficznych, ale zabezpieczenie elektrowni i stacji transformatorowych, aby je utrzymać.

Popyt Microsoftu jest równie oszałamiający. Przewiduje się, że jego obciążenia sztucznej inteligencji będą wymagać tyle prądu, co cały region Nowej Anglii do 2030 roku. To tłumaczy, dlaczego firma zainwestowała dziesiątki miliardów w projekty odnawialne i również prowadzi bardziej eksperymentalne opcje, takie jak fuzja jądrowa i zaawansowane reaktory jądrowe.

Dynamika ta przenosi się do polityki energetycznej. W PJM Interconnection, regionalnej organizacji przesyłowej, która zarządza siecią dla ponad 65 milionów ludzi w 13 stanach i Waszyngtonie, przedsiębiorstwa energetyczne badają mechanizmy ograniczania dla centrów danych podczas szczytowego popytu. Duże firmy technologiczne lobbingują przeciwko takim ograniczeniom, ale fakt, że regulatorzy nawet je rozważają, pokazuje, jak centralna jest sztuczna inteligencja w planowaniu sieci.

Wyzwanie Chłodzenia

Dostarczanie prądu to tylko połowa problemu. Gdy prąd dociera do szaf, następne wyzwanie to ciepło. Każdy wysokiej klasy procesor graficzny zużywa około 700 watów, a z szafami, które goszczą setki procesorów graficznych, gęstości sięgają 100 do 600 kilowatów na szafę. Chłodzenie powietrzne, standard branży przez dziesięciolecia, staje się niewykonalne poza około 40 kilowatami na szafę ze względu na niewydajność przepływu powietrza i recyrkulację.

Chłodzenie cieczą przesunęło się zatem z niszy do głównego nurtu. Najnowsze chłodzone cieczą platformy Blackwell od NVIDIA są zaprojektowane dla klastrów sztucznej inteligencji o skali hiperskali i zapewniają 25-krotnie lepszą wydajność energetyczną i 300-krotnie większą efektywność wody w porównaniu z szafami chłodzonymi powietrzem. Firma współpracuje również z Vertiv nad referencyjną architekturą, która może obsłużyć ponad 130 kilowatów na szafę, czyniąc gęste wdrożenia procesorów graficznych wykonalnymi.

Start-upy również innowują. Corintis, szwajcarska firma osadzająca mikrokanały bezpośrednio w podłożu chipów, niedawno pozyskała 24 miliony dolarów i już ma Microsoft wśród swoich klientów. Własny zespół badawczy Microsoftu wykazał mikrofluidyczne kanały wygrawerowane w opakowaniu chipów, zmniejszając temperatury szczytowe procesorów graficznych o do 65 procent i potrojenie wydajności w porównaniu z tradycyjnymi płytkami chłodzącymi. Te technologie pozwalają utrzymać procesory graficzne w pełnym zakresie pracy bez topnienia centrum danych.

Woda jako Zmienna Strategiczna

Chłodzenie cieczą wprowadza kolejną zmienną: zużycie wody. Systemy parowe i chłodzone wodą mogą wymagać ogromnych ilości wody, gdy są skalowane do kampusów o setkach megawatów. W Phoenix, klastry centrów danych mogą wymagać setek milionów galonów wody dziennie, wywołując obawy w regionach dotkniętych suszą.

To spowodowało rozwój systemów chłodzenia bez wody i zamkniętych pętli. IEEE Spectrum udokumentował strategie, takie jak kąpiele dielektryczne, chłodnice suche i chłodnice bez wody, które redukują użycie wody pitnej do niemal zera. Tymczasem niektórzy operatorzy eksperymentują z ponownym użyciem ciepła odpadowego. Projekty takie jak Aquasar i iDataCool pokazały, jak pętle chłodzenia ciepłej wody mogą zasilać systemy grzewcze budynków lub absorpcyjne chłodnice, recykling większości energii, która w przeciwnym razie zostałaby stracona.

Wymianą jest często woda i energia: zamknięte lub suche systemy zużywają więcej energii, podczas gdy projekty parowe oszczędzają energię, ale silnie korzystają z wody. W regionach z ograniczeniami wody polityka coraz częściej faworyzuje zachowanie wody, nawet jeśli oznacza to wyższe zużycie energii.

Infrastruktura i Sieć

Nawet z rozwiązaniami zasilania i chłodzenia na miejscu, ostateczne gardło to infrastruktura. Decyzje o lokalizacji teraz wyznaczają zwycięzców i przegranych w wyścigu sztucznej inteligencji.

Inwestycja Microsoftu w wysokości 80 miliardów dolarów w kampus Fairwater w Wisconsin ilustruje, jak strategiczna lokalizacja stała się. Teren zajmuje 315 akrów, mieści setki tysięcy procesorów graficznych i został wybrany ze względu na dostęp do stacji transformatorowych, linii światłowodowych i wody gruntowej. Projekt kładzie również nacisk na chłodzenie zamkniętej pętli, aby zminimalizować wpływ na wodę.

Aby wesprzeć swój rosnący popyt, Microsoft podpisał przełomową umowę z Brookfield, aby dodać 10,5 gigawatów mocy odnawialnej do 2030 roku. W tym samym czasie poparł bardziej eksperymentalne projekty, takie jak elektrownię fuzyjną budowaną przez Helion Energy, która ma zasilić centra danych do 2028 roku, oraz 20-letnią umowę na ponowne uruchomienie elektrowni jądrowej Three Mile Island w Pensylwanii.

Amazon i Google podejmują podobne kroki, zabezpieczając miejsca obok elektrowni jądrowych i rozwijając swoje własne portfolio czystej energii. W Irlandii, gdzie centra danych już teraz zużywają więcej energii niż wszystkie gospodarstwa domowe łącznie, regulatorzy zablokowali nowe zatwierdzenia do co najmniej 2028 roku, podkreślając, jak polityka i pozwolenia mogą sparaliżować nawet najlepiej sfinansowane projekty.

Inteligentniejsza Eksploatacja: Sztuczna Inteligencja Zarządzająca Sztuczną Inteligencją

Co ciekawe, sama sztuczna inteligencja jest wykorzystywana do zarządzania obciążeniem infrastruktury. Uczenie wzmocnione zostało wdrożone w produkcyjnych centrach danych, aby zoptymalizować systemy chłodzenia, produkując 14 do 21 procent oszczędności energii bez kompromisowania bezpieczeństwa. Wirtualne bliźniaki i modelowanie predykcyjne są również wykorzystywane do przewidywania gorących punktów, pre-chłodzenia sprzętu i przenoszenia obciążeń do chłodniejszych godzin lub okresów nadmiaru energii odnawialnej.

Google już wykazało, jak uczenie maszynowe może obniżyć potrzeby chłodzenia centrów danych o 40 procent, a inni operatorzy przyjmują podobne systemy. Gdy koszty energii i chłodzenia rosną, te oszczędności operacyjne stają się istotną przewagą konkurencyjną.

Strategiczne Perspektywy

Trajektoria jest jasna. Popyt sztucznej inteligencji ma podwoić globalne zużycie energii przez centra danych do 2030 roku, a same obciążenia sztucznej inteligencji będą stanowić udział średnich cyfr w ogólnym globalnym zużyciu energii do 2050 roku. Podczas gdy NVIDIA i inni producenci chipów nadal napędzają wydajność krzemu, praktyczna granica sztucznej inteligencji będzie określona przez to, jak szybko przedsiębiorstwa energetyczne będą mogły budować nową generację, transmisję i infrastrukturę chłodzenia.

Dla firm budujących produkty sztucznej inteligencji oznacza to, że mapy drogowe są coraz bardziej związane z miejscami, w których istnieje pojemność. Dla inwestorów najbardziej wartościowe ruchy mogą być przedsiębiorstwa energetyczne, deweloperzy transmisji i start-upy chłodzenia, a nie tylko dostawcy procesorów graficznych. A dla decydentów debata na temat sztucznej inteligencji przenosi się z pytań o etykę i zarządzanie danymi do pytań o megawaty, wodę i modernizację sieci.

Przyszłość sztucznej inteligencji nie zostanie tylko ustalona w laboratoriach badawczych i odlewniach półprzewodników, ale na stacjach transformatorowych, pętlach chłodzenia i elektrowniach. Fizyka skali — a nie tylko matematyka algorytmów — to co ustali tempo i zakres sztucznej inteligencji w nadchodzącej dekadzie.

Antoine jest wizjonerskim liderem i współzałożycielem Unite.AI, z niezachwianą pasją do kształtowania i promowania przyszłości sztucznej inteligencji i robotyki. Jako serialowy przedsiębiorca, uważa, że sztuczna inteligencja będzie tak samo przełomowa dla społeczeństwa, jak elektryczność, i często zachwycany jest potencjałem technologie przełomowych i AGI. Jako futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupiającej się na inwestowaniu w najnowocześniejsze technologie, które przeobrażają przyszłość i zmieniają całe sektory.