Connect with us

Liderzy opinii

Rozliczenie się z AI: Dlaczego infrastruktura ma największe znaczenie

mm
A professional technician in a modern data center inspecting a server rack with a tablet, showing a contrast between older server cabinets and new, high-density AI infrastructure.

AI jest najbardziej doniosłą technologią naszego życia, i zbliżamy się do punktu zwrotnego, który zmieni krajobraz biznesu.

Adopcja rośnie, z 78% przedsiębiorstw wdrożonych AI w 2025 roku i prognozami rynku na 1,81 bln dolarów do 2030 roku. Jednak za tym wzrostem kryje się trudna prawda: wiele przedsiębiorstw ma trudności z przekładaniem AI na rzeczywiste, skalowalne i namacalne wyniki. Staje się coraz bardziej jasne, że wiele z nich przyjmuje AI bez wymaganych zmian operacyjnych, aby działać na dużą skalę i w pełni wykorzystywać jego wartość.

W tym samym czasie infrastruktura podstawowa dla AI nie nadąża za potrzebnym wzrostem. Organizacje i modele są nadal ograniczone przez dostępną moc obliczeniową GPU, a dostępna pojemność centrów danych jest na rekordowo niskim poziomie na całym świecie. Nowa pojemność AI jest ograniczona przez dostępność mocy, czas budowy i brak wykwalifikowanej siły roboczej.

To jest rozliczenie się z AI – podział między tymi, którzy budują i przyjmują AI w potrzebnym tempie, a tymi, którzy są ograniczeni przez konserwatywne modele dziedzictwa. Do 2035 roku możliwe, że ta luka może pochłonąć połowę dzisiejszych firm. Wyścig jest już rozpoczęty: dostosuj się lub zgiń.

Spełnienie obietnic AI

Po latach ogłoszeń o wielu gigawatowych, organizacje w końcu staną się twarzą w twarz z prawdą rynku w tym roku. Kto naprawdę dostarcza, a kto tylko polega na nagłówkach i komunikatach prasowych, aby być częścią rozmowy.

Różnica między narracją a wykonaniem stanie się bardziej wyraźna, zwłaszcza gdy ROI AI jest rzeczywistym punktem dyskusji w sali zarządu dzisiaj. Zwycięzcy będą organizacjami, które mogą połączyć pełny stack, tj. dostawę GPU, moc, kapitał i wytrzymałą łańcuch dostaw, i udowodnić to w operacjach i przychodach, a nie tylko w marketingu. Ci, którzy dostarczą, przyspieszą szybko i wyłonią się jako wiarygodni długoterminowi liderzy. Ci, którzy są zakotwiczeni w kreatywnych ogłoszeniach, pozostaną w tyle. A luka będzie się nadal powiększać między nimi.

Czynniki ograniczające

Reguły obliczeń zmieniły się fundamentalnie. Od 2019 roku moc obliczeniowa za AI wzrosła mniej więcej co 10 miesięcy. Pojawienie się Gen AI przyspieszyło wzrost, ponieważ cykle życia sprzętu zostały skompresowane, a NVIDIA’s ekstremalny współprojekt ustalił tempo, które będzie tylko rosło. Jednak większość centrów danych nadal jest zaprojektowana dla obciążeń dziedzictwa, a nie dla gęstości mocy, wymagań chłodzenia i wzorców ruchu nowoczesnego obliczenia GPU.

Tradycyjne podejścia nie nadążają za zmianami napędzanymi przez AI. Próba uruchomienia obciążeń AI w środowiskach dziedzictwa jest jak podłączenie szybko poprawiającego się silnika Formuły 1 do samochodu rodzinnego; nadwozie po prostu nie jest zaprojektowane do obsługi wydajności i zmiany. I do czasu, gdy tradycyjnie zbudowane centrum danych zostanie uruchomione, sprzęt już ewoluował poza jego parametry projektowe.

W całej branży, z miliardami zainwestowanych w tradycyjną infrastrukturę, tworzy to niekomfortową rzeczywistość. Albo absorbować koszt odbudowy, mieć nadzieję, że starsze chipy pozostaną wartościowe, albo pozostać stale w tyle tych, którzy zaprojektowali zmiany AI od samego początku. Co więcej, modernizacja jest trudna. Postęp wymaga specjalnie zaprojektowanej infrastruktury, w tym bezpośredniego chłodzenia cieczą, sieci o wysokiej przepustowości i zaprojektowanych systemów zasilania.

Budowanie dla ciągłej zmiany

Rozwiązanie tego problemu wymaga całkowicie nowego podejścia do infrastruktury, które już zyskuje na popularności. Branża przechodzi w kierunku elastycznych, standardowych jednostek, które mogą być wdrożone, uaktualnione i zastąpione w sekcjach, gdy wymagania ewoluują.

To bardziej elastyczne podejście może teraz dostarczyć zoptymalizowaną pod kątem GPU pojemność w miesiącach, a nie latach. Produkcja poza miejscem i standardowe komponenty umożliwiają budowę i testowanie systemów w kontrolowanych środowiskach, przyspieszając wdrożenie i redukując złożoność i potrzebę wykwalifikowanej siły roboczej na miejscu. Co więcej, uaktualnienia mogą być wykonywane, podczas gdy reszta obiektu pozostaje operacyjna, a wycofane sekcje mogą być odnowione i ponownie wdrożone, przedłużając żywotność, redukując odpadki i maksymalizując przychody.

Dostosowanie się jest niezbędne w środowisku, w którym wymagania dotyczące wydajności ewoluują szybciej niż tradycyjne cykle życia centrów danych. Elastyczność jest teraz wymogiem definiującym ponad tradycyjną sztywność, do której jesteśmy przyzwyczajeni w budowach dziedzictwa.

Rozliczenie się z AI już jest

Rozliczenie się z AI nie jest już scenariuszem przyszłym; rozgrywa się w czasie rzeczywistym. Rozdzielenie między centrami danych zaprojektowanymi dla ciągłej zmiany a tymi, które są ograniczone przez założenia dziedzictwa, jest już widoczne i będzie przyspieszać. To nie jest po prostu cykl technologiczny; jest to strukturalne resetowanie, jak infrastruktura jest pojmowana, finansowana i dostarczana. Organizacje, które przyjmują elastyczność, łączą pełny stack i wykonują z szybkością, zdefiniują następną dekadę. Reszta nie tylko pozostanie w tyle, ale stanie się nieistotna.

Harqs Singh, Chief Technology Officer and Co-Founder of InfraPartners, prowadzi rozwój centrów danych AI wykorzystujących zaawansowaną produkcję poza miejscem. Poprzednio, jako COO Technology and Data & AI w BlackRock, Harqs posiada głęboką wiedzę w zakresie infrastruktury cyfrowej, AI i zrównoważonego rozwoju na platformach globalnych. Jego doświadczenie w różnych sektorach wzbogaca jego podejście i skłania go do promowania innowacyjnych modeli biznesowych i transformacji branży.

Harqs jest uznawany za osobę napędzającą innowacje w branży i odegrał aktywną rolę w kształtowaniu najlepszych praktyk branżowych i standardów budowlanych, takich jak Data Center Maturity Model.