Liderzy opinii
Rosnący apetyt AI na energię: Czy centra danych są gotowe, by dotrzymać kroku?
Wraz z postępami sztucznej inteligencji (AI) jej zapotrzebowanie na energię powoduje, że centra danych są przeciążone do granic wytrzymałości. Następne pokolenie technologii AI, takich jak generative AI (genAI), nie tylko zmienia branże, ale również ich zużycie energii wpływa na niemal każdy komponent serwera – od procesorów i pamięci po przyspieszacze i sieci.
Aplikacje genAI, w tym Microsoft’s Copilot i OpenAI’s ChatGPT, wymagają więcej energii niż kiedykolwiek wcześniej. Do 2027 roku szkolenie i utrzymanie tych systemów AI może zużyć tyle prądu, aby zasilać mały kraj przez cały rok. Trend ten nie spowalnia: w ciągu ostatniej dekady zapotrzebowanie na energię dla komponentów takich jak procesory, pamięć i sieci szacuje się na wzrost o 160% do 2030 roku, zgodnie z raportem Goldman Sachs .
Użycie dużych modeli językowych również pochłania energię. Na przykład, zapytanie ChatGPT zużywa około dziesięciokrotnie więcej energii niż tradycyjne wyszukiwanie Google. Biorąc pod uwagę ogromne wymagania energetyczne AI, czy przemysł może zarządzać swoimi postępami w sposób zrównoważony, czy będą one przyczyniać się do dalszego wzrostu globalnego zużycia energii? Ostatnie badania McKinsey pokazują, że około 70% wzrostu popytu na rynku centrów danych jest skierowane do obiektów wyposażonych w zaawansowane obciążenia AI. Ta zmiana zmienia fundamentalnie, w jaki sposób centra danych są budowane i zarządzane, dostosowując się do unikalnych wymagań tych wysoko-wydajnych zadań genAI.
„Tradycyjne centra danych często działają na starej, energochłonnej aparaturze i mają stałą pojemność, która ma trudności z adaptacją do zmieniających się obciążeń, co prowadzi do znacznego marnowania energii”, Mark Rydon, Chief Strategy Officer i współzałożyciel platformy obliczeniowej w chmurze Aethir , powiedział mi. „Centralizowane operacje często tworzą dysproporcję między dostępnością zasobów a potrzebami zużycia, co powoduje, że przemysł znajduje się w krytycznym momencie, w którym postępy mogą podważyć cele środowiskowe, gdyż rosnące wymagania AI będą rosły”.
Liderzy branży zajmują się teraz tym wyzwaniem, inwestując w bardziej ekologiczne projekty i energooszczędne architektury centrów danych. Wysiłki obejmują przyjęcie odnawialnych źródeł energii, tworzenie bardziej wydajnych systemów chłodzenia, które mogą zrównoważyć ogromne ilości ciepła wytwarzanego przez obciążenia genAI.
Rewolucjonizacja centrów danych dla zielonej przyszłości
Lenovo niedawno wprowadziło ThinkSystem N1380 Neptune, który jest skokiem w technologii chłodzenia cieczą w centrach danych. Firma twierdzi, że innowacja ta już pozwala organizacjom wdrażać obliczenia o wysokiej wydajności dla obciążeń genAI z znacznie mniejszym zużyciem energii – nawet o 40% mniej energii w centrach danych. N1380 Neptune wykorzystuje najnowsze urządzenia NVIDIA, w tym procesory Blackwell i GB200, umożliwiając obsługę modeli AI o parametrach liczonych w bilionach w kompaktowej konfiguracji. Lenovo stwierdziło, że chce torować drogę centrom danych, które mogą działać z szafami serwerowymi o mocy 100 kW+ bez potrzeby dedykowanej klimatyzacji.
„Zidentyfikowaliśmy znaczące wymagania naszych obecnych klientów: centra danych zużywają więcej energii podczas obsługi obciążeń AI ze względu na przestarzałe architektury chłodzenia i tradycyjne struktury”, Robert Daigle, Globalny Dyrektor ds. AI w Lenovo, powiedział mi. „Aby to lepiej zrozumieć, współpracowaliśmy z klientem z branży obliczeń wysokowydajnych, aby przeanalizować ich zużycie energii, co doprowadziło nas do wniosku, że możemy zmniejszyć zużycie energii o 40%”. Dodał, że firma wzięła pod uwagę czynniki takie jak moc wentylatorów i zużycie energii przez jednostki chłodzące, porównując je z standardowymi systemami dostępnymi za pośrednictwem usługi oceny centrów danych Lenovo, aby opracować nową architekturę centrów danych we współpracy z Nvidia.
Brytyjska firma konsultingowa ds. technologii informacyjnej AVEVA stwierdziła, że wykorzystuje analitykę predykcyjną do identyfikacji problemów z kompresorami, silnikami, urządzeniami HVAC, agregatami powietrza i innymi.
„Stwierdziliśmy, że to właśnie wstępne szkolenie generatywnego AI pochłania ogromne ilości energii”, Jim Chappell, Dyrektor ds. AI i Zaawansowanej Analityki w AVEVA, powiedział mi. „Poprzez nasze systemy AI oparte na predykcjach, staramy się znaleźć problemy znacznie wcześniej, zanim jakikolwiek system SCADA lub kontrolny je wykryje, umożliwiając operatorom centrów danych naprawę problemów z urządzeniami przed ich wystąpieniem. Dodatkowo, mamy Asystenta Wizyjnego AI, który jest rodzimie zintegrowany z naszymi systemami kontrolnymi, aby pomóc w znalezieniu innych rodzajów anomalii, w tym gorących punktów temperatury przy użyciu kamery termowizyjnej”.
Tymczasem, zdecentralizowane obliczenia dla szkolenia i rozwoju AI za pomocą procesorów graficznych w chmurze stają się alternatywą. Rydon z Aethir wyjaśnił, że rozproszając zadania obliczeniowe w szerszej, bardziej elastycznej sieci, można zoptymalizować zużycie energii, dopasowując zapotrzebowanie na zasoby do ich dostępności, co prowadzi do znaczących redukcji marnowania energii od samego początku.
„Zamiast polegać na dużych, scentralizowanych centrach danych, nasza infrastruktura „Edge” rozprasza zadania obliczeniowe do węzłów bliżej źródła danych, co dramatycznie redukuje obciążenie energetyczne transferu danych i obniża opóźnienia”, powiedział Rydon. „Sieć Aethir Edge minimalizuje potrzebę stałego chłodzenia o wysokiej mocy, ponieważ obciążenia są rozproszone w różnych środowiskach, a nie koncentrują się w jednej lokalizacji, co pomaga uniknąć energochłonnych systemów chłodzenia typowych dla centralnych centrów danych”.
Podobnie, firmy takie jak Amazon i Google eksperymentują z odnawialnymi źródłami energii, aby zarządzać rosnącymi potrzebami energetycznymi w swoich centrach danych. Microsoft na przykład inwestuje znacznie w odnawialne źródła energii i technologie zwiększające wydajność, aby zmniejszyć zużycie energii w swoich centrach danych. Google również podjął kroki, aby przesiąść się na energię bezemisyjną i zbadać systemy chłodzenia, które minimalizują zużycie energii w centrach danych. „Energia jądrowa jest najprawdopodobniej najszybszą drogą do bezemisyjnych centrów danych. Duży dostawcy centrów danych, tacy jak Microsoft, Amazon i Google, znacznie inwestują w tym rodzaju generacji energii na przyszłość. Z małymi modułowymi reaktorami, elastyczność i czas produkcji sprawiają, że jest to jeszcze bardziej wiarygodna opcja, aby osiągnąć zero emisji netto”, dodał Chappell z AVEVA.
Czy AI i zrównoważoność centrów danych mogą współistnieć?
Ugur Tigli, CTO na platformie infrastruktury AI MinIO, twierdzi, że chociaż mamy nadzieję na przyszłość, w której AI może postępować bez ogromnego wzrostu zużycia energii, to nie jest to realistyczne w krótkim terminie. „Długoterminowe skutki są trudniejsze do przewidzenia”, powiedział mi, „ale zobaczymy zmianę w siłach roboczych, a AI pomoże poprawić zużycie energii na całym świecie”. Tigli uważa, że wraz ze wzrostem znaczenia wydajności energetycznej jako priorytetu rynkowego, zobaczymy wzrost obliczeń wraz ze spadkiem zużycia energii w innych sektorach, szczególnie gdy stają się one bardziej efektywne.
Zwrócił również uwagę na rosnące zainteresowanie wśród konsumentów rozwiązaniami AI przyjaznymi dla środowiska. „Wyobraź sobie aplikację AI, która działa z 90% wydajnością, ale zużywa tylko połowę energii – to właśnie ten rodzaj innowacji, który może naprawdę odnieść sukces”, dodał. Jest jasne, że przyszłość AI nie dotyczy tylko innowacji, ale także zrównoważoności centrów danych. Niezależnie od tego, czy chodzi o tworzenie bardziej wydajnego sprzętu, czy inteligentniejsze korzystanie z zasobów, to, jak zarządzamy zużyciem energii przez AI, będzie miało znaczący wpływ na projektowanie i eksploatację centrów danych.
Rydon podkreślił wagę inicjatyw branżowych, które koncentrują się na zrównoważonych projektach centrów danych, energooszczędnych obciążeniach AI i otwartym udostępnianiu zasobów. „Są to kluczowe kroki w kierunku bardziej ekologicznych operacji”, powiedział. „Przedsiębiorstwa korzystające z AI powinny współpracować z firmami technologicznymi, aby tworzyć rozwiązania, które redukują wpływ na środowisko. Współpracując, możemy skierować AI ku bardziej zrównoważonej przyszłości”.












