Connect with us

Sztuczna inteligencja

Wykorzystywanie Krzemu: Jak Własne Czipy Kształtują Przyszłość Sztucznej Inteligencji

mm

Sztuczna inteligencja, podobnie jak każde oprogramowanie, opiera się na dwóch podstawowych komponentach: programach sztucznej inteligencji, często określanych jako modele, oraz sprzęcie komputacyjnym, czyli czipach, które napędzają te programy. Do tej pory główny nacisk w rozwoju sztucznej inteligencji był położony na udoskonalenie modeli, podczas gdy sprzęt był zazwyczaj postrzegany jako standardowy komponent dostarczany przez dostawców zewnętrznych. Ostatnio jednak ten podejście zaczęło się zmieniać. Duże firmy sztucznej inteligencji, takie jak Google, Meta i Amazon, rozpoczęły rozwój własnych czipów sztucznej inteligencji. Wewnętrzny rozwój niestandardowych czipów sztucznej inteligencji zapowiada nową erę w rozwoju sztucznej inteligencji. Artykuł ten będzie badał powody za tym zmianą podejścia i przedstawi najnowsze rozwoju w tej ewoluującej dziedzinie.

Dlaczego Wewnętrzny Rozwój Czipów Sztucznej Inteligencji?

Zmiana w kierunku wewnętrznego rozwoju niestandardowych czipów sztucznej inteligencji jest napędzana przez kilka krytycznych czynników, w tym:

Rosnący Popyt na Czipy Sztucznej Inteligencji

Tworzenie i używanie modeli sztucznej inteligencji wymaga znacznych zasobów obliczeniowych, aby skutecznie radzić sobie z dużymi ilościami danych i generować dokładne przewidywania lub spostrzeżenia. Tradycyjne czipy komputerowe nie są w stanie poradzić sobie z wymogami obliczeniowymi podczas szkolenia na bilionach punktów danych. To ograniczenie doprowadziło do stworzenia najnowocześniejszych czipów sztucznej inteligencji, które są specjalnie zaprojektowane, aby spełnić wysokie wymagania wydajności i efektywności nowoczesnych aplikacji sztucznej inteligencji. W miarę jak badania i rozwój sztucznej inteligencji nadal rosną, rośnie również popyt na te specjalistyczne czipy.
Nvidia, lider w produkcji zaawansowanych czipów sztucznej inteligencji i znacznie wyprzedzający swoich konkurentów, stoi przed wyzwaniami, ponieważ popyt znacznie przekracza ich zdolność produkcyjną. Sytuacja ta doprowadziła do listy oczekujących na czipy Nvidia, które zostały wydłużone do kilku miesięcy, opóźnienie, które nadal rośnie, ponieważ popyt na ich czipy sztucznej inteligencji rośnie. Ponadto rynek czipów, który obejmuje głównych graczy, takich jak Nvidia i Intel, napotyka trudności w produkcji czipów. Ten problem wynika z ich zależności od tajwańskiego producenta TSMC w zakresie montażu czipów. Ta zależność od jednego producenta prowadzi do wydłużonych czasów oczekiwania na produkcję tych zaawansowanych czipów.

Czas na Efektywność Energetyczną i Zrównoważoność Obliczeń Sztucznej Inteligencji

Bieżąca generacja czipów sztucznej inteligencji, które są zaprojektowane do ciężkich zadań obliczeniowych, mają tendencję do zużycia dużej ilości energii i generowania znacznych ilości ciepła. Doprowadziło to do znacznych implikacji środowiskowych dla szkolenia i używania modeli sztucznej inteligencji. Naukowcy OpenAI zwracają uwagę, że: od 2012 roku, moc obliczeniowa wymagana do szkolenia zaawansowanych modeli sztucznej inteligencji podwaja się co 3,4 miesiąca, co sugeruje, że do 2040 roku emisje z sektora technologii informacyjnej i komunikacyjnej (ICT) mogą stanowić 14% globalnych emisji. Inne badanie wykazało, że szkolenie jednego dużego modelu językowego może emitować do 284 000 kg CO2, co jest równoważne z zużyciem energii przez pięć samochodów przez cały ich okres użytkowania. Ponadto szacuje się, że zużycie energii przez centra danych wzrośnie o 28 procent do 2030 roku. Te ustalenia podkreślają konieczność znalezienia równowagi między rozwojem sztucznej inteligencji a odpowiedzialnością środowiskową. W odpowiedzi wiele firm sztucznej inteligencji inwestuje obecnie w rozwój bardziej efektywnych energetycznie czipów, aby uczynić szkolenie i operacje sztucznej inteligencji bardziej zrównoważonymi i przyjaznymi dla środowiska.

Dopasowanie Czipów do Specjalistycznych Zadań

Różne procesy sztucznej inteligencji mają różne wymagania obliczeniowe. Na przykład szkolenie modeli głębokiego uczenia wymaga znacznej mocy obliczeniowej i wysokiej przepustowości, aby poradzić sobie z dużymi zbiorami danych i wykonać złożone obliczenia szybko. Czipy zaprojektowane do szkolenia są zoptymalizowane, aby poprawić te operacje, zwiększając szybkość i efektywność. Z drugiej strony, proces inferencji, w którym model stosuje swoją wiedzę, aby dokonywać przewidywań, wymaga szybkiej przetwarzania z minimalnym zużyciem energii, szczególnie w urządzeniach brzegowych, takich jak smartfony i urządzenia IoT. Czipy do inferencji są zaprojektowane, aby zoptymalizować wydajność na wat, zapewniając szybką reakcję i oszczędność baterii. To specjalistyczne dopasowanie projektów czipów do zadań szkolenia i inferencji pozwala każdemu czipowi być precyzyjnie dostosowanym do jego przeznaczenia, poprawiając wydajność w różnych urządzeniach i aplikacjach. Ten rodzaj specjalizacji nie tylko wspiera bardziej zaawansowane funkcje sztucznej inteligencji, ale także promuje większą efektywność energetyczną i opłacalność.

Reducowanie Finansowych Obciążeń

Finansowe obciążenie obliczeń dla szkolenia i operacji modeli sztucznej inteligencji pozostaje znaczne. OpenAI, na przykład, używa ogromnego superkomputera stworzonego przez Microsoft do szkolenia i inferencji od 2020 roku. Kosztowało OpenAI około 12 milionów dolarów, aby przeszkolić swój model GPT-3, a wydatek wzrósł do 100 milionów dolarów na szkolenie GPT-4. Według raportu SemiAnalysis, OpenAI potrzebuje około 3617 serwerów HGX A100, łącznie 28 936 procesorów graficznych, aby wspierać ChatGPT, co daje średni koszt na zapytanie około 0,36 dolara. Biorąc pod uwagę te wysokie koszty, Sam Altman, dyrektor generalny OpenAI, podobno szuka znacznych inwestycji, aby zbudować światową sieć zakładów produkujących czipy sztucznej inteligencji, według raportu Bloomberg.

Kontrola i Innowacje

Czipy sztucznej inteligencji od dostawców zewnętrznych często mają ograniczenia. Firmy, które polegają na tych czipach, mogą znaleźć się ograniczone przez rozwiązania standardowe, które nie są w pełni dostosowane do ich unikalnych modeli sztucznej inteligencji lub aplikacji. Wewnętrzny rozwój czipów pozwala na dostosowanie do konkretnych przypadków użycia. Niezależnie od tego, czy jest to dla samochodów autonomicznych, czy urządzeń mobilnych, kontrola sprzętu pozwala firmom w pełni wykorzystać swoje algorytmy sztucznej inteligencji. Niestandardowe czipy mogą poprawić określone zadania, zmniejszyć opóźnienia i poprawić ogólną wydajność.

Najnowsze Postępy w Rozwoju Czipów Sztucznej Inteligencji

Ten dział przedstawia najnowsze osiągnięcia Google, Meta i Amazon w budowaniu technologii czipów sztucznej inteligencji.

Procesory Axion od Google

Google stale postępuje w dziedzinie technologii czipów sztucznej inteligencji od wprowadzenia Tensor Processing Unit (TPU) w 2015 roku. Budując na tym fundamencie, Google niedawno wprowadził procesory Axion, swoje pierwsze niestandardowe procesory CPU specjalnie zaprojektowane dla centrów danych i obciążeń sztucznej inteligencji. Procesory te opierają się na architekturze Arm, znanej z ich wydajności i kompaktowej konstrukcji. Procesory Axion mają na celu poprawić wydajność szkolenia i inferencji opartych na CPU, jednocześnie zachowując efektywność energetyczną. Ten postęp oznacza również znaczny wzrost wydajności dla różnych ogólnych obciążeń, w tym serwerów sieciowych i aplikacji, kontenerowych mikrousług, otwartych baz danych, silników analitycznych danych, przetwarzania multimediów i więcej.

MTIA od Meta

Meta posuwa się do przodu w technologii czipów sztucznej inteligencji ze swoim Meta Training and Inference Accelerator (MTIA). Narzędzie to jest zaprojektowane, aby zwiększyć wydajność szkolenia i inferencji, szczególnie dla algorytmów rankingowych i rekomendacyjnych. Niedawno Meta opisał, jak MTIA jest kluczową częścią swojej strategii, aby wzmocnić swoją infrastrukturę sztucznej inteligencji poza procesorami graficznymi. Początkowo zaplanowane do uruchomienia w 2025 roku, Meta już wprowadził obie wersje MTIA do produkcji, pokazując szybszy tempa w swoich planach rozwoju czipów. Chociaż MTIA obecnie koncentruje się na szkoleniu określonych typów algorytmów, Meta planuje rozszerzyć jego użycie, aby objąć szkolenie generatywnej sztucznej inteligencji, takiej jak modele językowe Llama.

Trainium i Inferentia od Amazon

Od wprowadzenia swojego niestandardowego czipu Nitro w 2013 roku, Amazon znacznie rozszerzył swój rozwój czipów sztucznej inteligencji. Firma niedawno przedstawiła dwa innowacyjne czipy sztucznej inteligencji, Trainium i Inferentia. Trainium jest specjalnie zaprojektowany, aby poprawić szkolenie modeli sztucznej inteligencji i ma być włączony do klaster EC2 UltraClusters. Klaster te, które mogą mieścić do 100 000 czipów, są zoptymalizowane do szkolenia modeli podstawowych i dużych modeli językowych w sposób efektywny energetycznie. Inferentia, z drugiej strony, jest dostosowana do zadań inferencji, w których modele sztucznej inteligencji są aktywnie stosowane, koncentrując się na zmniejszaniu opóźnień i kosztów podczas inferencji, aby lepiej obsługiwać potrzeby milionów użytkowników, którzy wchodzą w interakcje z usługami napędzanymi przez sztuczną inteligencję.

Podsumowanie

Ruch w kierunku wewnętrznego rozwoju niestandardowych czipów sztucznej inteligencji przez główne firmy, takie jak Google, Microsoft i Amazon, odzwierciedla strategiczną zmianę, aby rozwiązać rosnące potrzeby obliczeniowe technologii sztucznej inteligencji. Tendencja ta podkreśla konieczność rozwiązań, które są specjalnie dostosowane do efektywnej obsługi modeli sztucznej inteligencji, spełniając unikalne wymagania tych zaawansowanych systemów. W miarę jak popyt na czipy sztucznej inteligencji nadal rośnie, liderzy branży, tacy jak Nvidia, prawdopodobnie zobaczą znaczny wzrost wartości rynkowej, podkreślając kluczową rolę, jaką niestandardowe czipy odgrywają w napędzaniu innowacji sztucznej inteligencji. Tworząc własne czipy, te giganci technologiczni nie tylko poprawiają wydajność i efektywność swoich systemów sztucznej inteligencji, ale także promują bardziej zrównoważoną i opłacalną przyszłość. Ewolucja ta ustanawia nowe standardy w branży, napędzając postęp technologiczny i przewagę konkurencyjną na szybko zmieniającym się rynku globalnym.

Dr. Tehseen Zia jest profesorem nadzwyczajnym w COMSATS University Islamabad, posiada tytuł doktora w dziedzinie sztucznej inteligencji na Vienna University of Technology, Austria. Specjalizując się w sztucznej inteligencji, uczeniu maszynowym, nauce o danych i widzeniu komputerowym, wniósł znaczący wkład poprzez publikacje w renomowanych czasopismach naukowych. Dr. Tehseen Zia również kierował różnymi projektami przemysłowymi jako główny badacz i pełnił funkcję konsultanta ds. sztucznej inteligencji.