Liderzy myśli
Rosnące zapotrzebowanie sztucznej inteligencji na moc: czy centra danych są gotowe nadążyć?

W miarę jak sztuczna inteligencja (AI) pędzi naprzód, jej zapotrzebowanie na energię obciąża centra danych do granic wytrzymałości. Technologie AI nowej generacji, takie jak generatywna sztuczna inteligencja (genAI) nie tylko zmieniają oblicze poszczególnych branż — ich zużycie energii wpływa na niemal każdy komponent serwera danych — od procesorów i pamięci po akceleratory i sieci.
Aplikacje GenAI, w tym Copilot firmy Microsoft i ChatGPT firmy OpenAI, zużywają więcej energii niż kiedykolwiek wcześniej. Do 2027 roku samo szkolenie i utrzymanie tych systemów AI może pochłonąć wystarczająco dużo energii. prąd do zasilania małego kraju przez cały rok. I ten trend nie zwalnia: w ciągu ostatniej dekady zapotrzebowanie na energię dla komponentów, takich jak procesory, pamięć i sieć, ma wzrosnąć o 160% do 2030 r., zgodnie z szacunkami Goldman Sachs zgłosić.
Użycie dużych modeli językowych również zużywa energię. Na przykład zapytanie ChatGPT zużywa około dziesięć razy tradycyjne wyszukiwanie w Google. Biorąc pod uwagę ogromne zapotrzebowanie na energię sztucznej inteligencji, czy szybkie postępy w branży można zarządzać w sposób zrównoważony, czy też przyczynią się one do dalszego wzrostu globalnego zużycia energii? Niedawne badanie McKinsey naukowe pokazuje, że około 70% rosnącego popytu na rynku centrów danych jest skierowane na obiekty wyposażone w obsługę zaawansowanych obciążeń AI. Ta zmiana zasadniczo zmienia sposób budowy i prowadzenia centrów danych, ponieważ dostosowują się one do unikalnych wymagań tych zaawansowanych zadań genAI.
„Tradycyjne centra danych często działają przy użyciu starzejącego się, energochłonnego sprzętu i stałych pojemności, które mają trudności z dostosowaniem się do zmiennych obciążeń, co prowadzi do znacznych strat energii” Mark Rydon, dyrektor ds. strategii i współzałożyciel rozproszonej platformy obliczeniowej w chmurze Aethir, powiedział mi. „Centralne operacje często powodują brak równowagi między dostępnością zasobów a potrzebami konsumpcyjnymi, co prowadzi branżę do krytycznego momentu, w którym postęp może zagrozić realizacji celów środowiskowych w obliczu rosnącego zapotrzebowania na sztuczną inteligencję”.
Liderzy branży stawiają teraz czoła wyzwaniu, inwestując w bardziej ekologiczne projekty i energooszczędne architektury dla centrów danych. Działania obejmują przyjęcie odnawialnych źródeł energii, tworzenie bardziej wydajnych systemów chłodzenia, które mogą zrównoważyć ogromne ilości ciepła generowanego przez obciążenia genAI.
Rewolucjonizowanie centrów danych dla bardziej ekologicznej przyszłości
Lenovo niedawno wprowadziło ThinkSystem N1380 Neptun, skok naprzód w technologii chłodzenia cieczą dla centrów danych. Firma twierdzi, że innowacja ta umożliwia już organizacjom wdrażanie wydajnego przetwarzania dla obciążeń genAI przy znacznie niższym zużyciu energii — do 40% mniej energii w centrach danych. N1380 Neptune wykorzystuje najnowszy sprzęt firmy NVIDIA, w tym procesory graficzne Blackwell i GB200, umożliwiając obsługę modeli AI o bilionach parametrów w kompaktowej konfiguracji. Lenovo stwierdziło, że jego celem jest utorowanie drogi centrom danych, które mogą obsługiwać szafy serwerowe o mocy 100 kW+ bez potrzeby dedykowanej klimatyzacji.
„Zidentyfikowaliśmy istotną potrzebę naszych obecnych klientów: centra danych zużywają więcej energii podczas obsługi obciążeń AI ze względu na przestarzałe architektury chłodzenia i tradycyjne ramy strukturalne” Robert Daigle, globalny dyrektor ds. sztucznej inteligencji w Lenovo, powiedział mi. „Aby lepiej to zrozumieć, nawiązaliśmy współpracę z klientem korzystającym z wysokowydajnych systemów obliczeniowych (HPC), aby przeanalizować jego zużycie energii. Doszliśmy do wniosku, że możemy zmniejszyć zużycie energii o 40%”. Dodał, że firma wzięła pod uwagę takie czynniki, jak moc wentylatorów i zużycie energii przez jednostki chłodzące, porównując je ze standardowymi systemami dostępnymi w ramach usługi oceny centrów danych Lenovo. Dzięki temu mogła opracować nową architekturę centrum danych we współpracy z firmą Nvidia.
Brytyjska firma konsultingowa zajmująca się technologiami informacyjnymi AVEVA, poinformowała, że wykorzystuje analitykę predykcyjną w celu identyfikowania problemów ze sprężarkami, silnikami, urządzeniami HVAC, urządzeniami do obróbki powietrza i innymi elementami w centrach danych.
„Odkryliśmy, że to wstępne szkolenie sztucznej inteligencji generatywnej pochłania ogromne ilości energii” Jim Chappell, szef działu sztucznej inteligencji i zaawansowanej analityki w firmie AVEVA, powiedział mi. „Dzięki naszym predykcyjnym systemom opartym na sztucznej inteligencji staramy się wykrywać problemy na długo przed pojawieniem się jakichkolwiek systemów SCADA lub sterowania, co pozwala operatorom centrów danych naprawiać problemy ze sprzętem, zanim staną się one poważnymi problemami. Ponadto mamy asystenta Vision AI, który natywnie integruje się z naszymi systemami sterowania, aby pomóc w znajdowaniu innych typów anomalii, w tym gorących punktów temperatury, gdy jest używany z kamerą termowizyjną”.
Tymczasem zdecentralizowane przetwarzanie do szkolenia i rozwoju AI za pomocą GPU w chmurze wyłania się jako alternatywa. Rydoń wyjaśnił, że dzięki rozłożeniu zadań obliczeniowych na większą, bardziej elastyczną sieć można zoptymalizować zużycie energii, dostosowując zapotrzebowanie na zasoby do ich dostępności, co prowadzi do znacznej redukcji odpadów już od samego początku.
„Zamiast polegać na dużych, scentralizowanych centrach danych, nasza infrastruktura „Edge” rozdziela zadania obliczeniowe na węzły znajdujące się bliżej źródła danych, co radykalnie zmniejsza obciążenie energetyczne związane z transferem danych i obniża opóźnienia” powiedział Rydon. „Sieć Aethir Edge minimalizuje potrzebę stałego chłodzenia o dużej mocy, ponieważ obciążenia są rozłożone w różnych środowiskach, a nie skoncentrowane w jednym miejscu, co pomaga uniknąć energochłonnych systemów chłodzenia typowych dla centralnych centrów danych”.
Podobnie firmy takie jak: Amazon i Google eksperymentują z odnawialnymi źródłami energii, aby zarządzać rosnącym zapotrzebowaniem na energię w swoich centrach danych. Microsoft, na przykład, inwestuje dużo w odnawialne źródła energii i technologie zwiększające wydajność, aby zmniejszyć zużycie energii w swoich centrach danych. Google również podjęło kroki w celu przejścia na energię bezemisyjną i zbadania systemów chłodzenia, które minimalizują zużycie energii w centrach danych. „Energia jądrowa jest prawdopodobnie najszybszą drogą do centrów danych bezemisyjnych. Główni dostawcy centrów danych, tacy jak Microsoft, Amazon i Google, są teraz mocno inwestuje w tym typie wytwarzania energii na przyszłość. Dzięki małym reaktorom modułowym (SMR), elastyczność i czas produkcji sprawiają, że jest to jeszcze bardziej opłacalna opcja osiągnięcia Net Zero”, w dodatku Chappell z AVEVA.
Czy sztuczna inteligencja i zrównoważony rozwój centrów danych mogą współistnieć?
Ugur Tigli, dyrektor ds. technologii w platformie infrastruktury AI minIO, mówi, że chociaż mamy nadzieję na przyszłość, w której sztuczna inteligencja będzie mogła rozwijać się bez gwałtownego wzrostu zużycia energii, to w krótkiej perspektywie jest to po prostu nierealne. „Trudniej przewidzieć długoterminowe skutki” powiedział mi, „ale zobaczymy zmianę w sile roboczej, a sztuczna inteligencja pomoże poprawić zużycie energii na całej linii”. Tigli uważa, że w miarę jak efektywność energetyczna staje się priorytetem rynkowym, będziemy świadkami wzrostu w sektorze komputerowym przy jednoczesnym spadku zużycia energii w innych sektorach, zwłaszcza gdy staną się one bardziej wydajne.
Zwrócił również uwagę na rosnące zainteresowanie konsumentów bardziej ekologicznymi rozwiązaniami z zakresu sztucznej inteligencji. „Wyobraź sobie aplikację AI, która działa z wydajnością na poziomie 90%, ale zużywa tylko połowę energii – to jest rodzaj innowacji, która naprawdę mogłaby się rozwinąć” Dodał. Jest oczywiste, że przyszłość sztucznej inteligencji to nie tylko innowacje, ale także zrównoważony rozwój centrów danych. Niezależnie od tego, czy chodzi o rozwój bardziej wydajnego sprzętu, czy inteligentniejsze sposoby wykorzystania zasobów, sposób, w jaki zarządzamy zużyciem energii przez sztuczną inteligencję, będzie miał ogromny wpływ na projektowanie i funkcjonowanie centrów danych.
Rydoń podkreślił znaczenie inicjatyw branżowych skupiających się na zrównoważonych projektach centrów danych, energooszczędnych obciążeniach AI i otwartym udostępnianiu zasobów. „To kluczowe kroki w kierunku bardziej ekologicznych operacji” powiedział. „Firmy wykorzystujące AI powinny współpracować z firmami technologicznymi, aby tworzyć rozwiązania, które zmniejszają wpływ na środowisko. Współpracując, możemy skierować AI w stronę bardziej zrównoważonej przyszłości”.