Kontakt z nami

Wykorzystanie krzemu: jak wewnętrzne chipy kształtują przyszłość sztucznej inteligencji

Artificial Intelligence

Wykorzystanie krzemu: jak wewnętrzne chipy kształtują przyszłość sztucznej inteligencji

mm

Sztuczna inteligencja, jak każde oprogramowanie, opiera się na dwóch podstawowych komponentach: programach AI, często nazywanych modelami, oraz sprzęcie obliczeniowym, czyli chipach, które sterują tymi programami. Jak dotąd rozwój sztucznej inteligencji skupiał się na udoskonalaniu modeli, podczas gdy sprzęt był zazwyczaj postrzegany jako standardowy komponent dostarczany przez zewnętrznych dostawców. Ostatnio jednak to podejście zaczęło się zmieniać. Największe firmy zajmujące się sztuczną inteligencją, takie jak Google, Meta i Amazon, rozpoczęły opracowywanie własnych chipów AI. Wewnętrzny rozwój niestandardowych chipów AI zwiastuje nową erę w rozwoju sztucznej inteligencji. W tym artykule zostaną zbadane przyczyny tej zmiany podejścia i podkreślone zostaną najnowsze osiągnięcia w tej rozwijającej się dziedzinie.

Dlaczego wewnętrzny rozwój chipów AI?

Przejście w kierunku wewnętrznego opracowywania niestandardowych chipów AI jest napędzane przez kilka kluczowych czynników, do których należą:  

Rosnący popyt na chipy AI

Tworzenie i używanie modeli sztucznej inteligencji wymaga znacznych zasobów obliczeniowych, aby skutecznie obsługiwać duże ilości danych i generować precyzyjne przewidywania lub spostrzeżenia. Tradycyjne chipy komputerowe nie są w stanie sprostać wymaganiom obliczeniowym podczas uczenia na bilionach punktów danych. To ograniczenie doprowadziło do stworzenia najnowocześniejszych chipów AI zaprojektowanych specjalnie w celu spełnienia wysokich wymagań dotyczących wydajności i wydajności nowoczesnych aplikacji AI. Wraz ze wzrostem badań i rozwoju sztucznej inteligencji rośnie zapotrzebowanie na te wyspecjalizowane chipy.

Nvidia, lider w produkcji zaawansowanych chipów AI, znacznie wyprzedzający swoich konkurentów, stoi przed wyzwaniami, ponieważ popyt znacznie przekracza jej możliwości produkcyjne. Sytuacja ta doprowadziła do lista oczekujących na Nvidięchipy AI zostaną przedłużone do kilku miesięcy, co stanowi opóźnienie, które stale rośnie wraz ze wzrostem popytu na chipy AI. Co więcej, rynek chipów, na który składają się główni gracze, tacy jak Nvidia i Intel, napotyka wyzwania w zakresie produkcji chipów. Ten problem wynika z ich zależności od tajwańskiego producenta TSMC w zakresie montażu chipów. Zależność od jednego producenta prowadzi do wydłużenia czasu realizacji produkcji tych zaawansowanych chipów.

Sprawienie, że przetwarzanie sztucznej inteligencji będzie energooszczędne i zrównoważone

Obecna generacja chipów AI, które są przeznaczone do ciężkich zadań obliczeniowych, zwykle to robi zużywają dużo energiii wytwarzają znaczne ilości ciepła. Doprowadziło to do znacznych konsekwencji dla środowiska w zakresie szkolenia i korzystania z modeli sztucznej inteligencji. Badacze OpenAI zauważ to: od 2012 r. moc obliczeniowa wymagana do szkolenia zaawansowanych modeli sztucznej inteligencji podwaja się co 3.4 miesiąca, co sugeruje, że do 2040 r. emisje z sektora technologii informacyjno-komunikacyjnych (ICT) mogą stanowić 14% globalnych emisji. Kolejne badanie pokazał że szkolenie na dużą skalę model języka może wyemitować do 284,000 2 kg COXNUMX, co w przybliżeniu odpowiada zużyciu energii przez pięć samochodów w ciągu ich życia. Co więcej, tak jest szacunkowa że zużycie energii w centrach danych będzie się zmieniać wzrośnie o 28 procent do 2030 r. Ustalenia te podkreślają konieczność znalezienia równowagi między rozwojem sztucznej inteligencji a odpowiedzialnością za środowisko. W odpowiedzi wiele firm zajmujących się sztuczną inteligencją inwestuje obecnie w rozwój bardziej energooszczędnych chipów, mając na celu uczynienie szkoleń i operacji związanych z sztuczną inteligencją bardziej zrównoważonymi i przyjaznymi dla środowiska.

Dostosowywanie chipów do zadań specjalistycznych

Różne procesy AI mają różne wymagania obliczeniowe. Na przykład szkolenie modeli głębokiego uczenia się wymaga znacznej mocy obliczeniowej i dużej przepustowości, aby móc szybko obsługiwać duże zbiory danych i wykonywać złożone obliczenia. Chipy przeznaczone do treningu są zoptymalizowane pod kątem usprawnienia tych operacji, poprawy szybkości i wydajności. Z drugiej strony proces wnioskowania, w którym model wykorzystuje zdobytą wiedzę do tworzenia prognoz, wymaga szybkiego przetwarzania przy minimalnym zużyciu energii, szczególnie w urządzeniach brzegowych, takich jak smartfony i urządzenia IoT. Chipy do wnioskowania zostały zaprojektowane tak, aby optymalizować wydajność na wat, zapewniając szybką reakcję i oszczędzanie baterii. To specyficzne dostosowanie projektów chipów do zadań szkoleniowych i wnioskowania umożliwia precyzyjne dostosowanie każdego chipa do jego zamierzonej roli, zwiększając wydajność w różnych urządzeniach i aplikacjach. Ten rodzaj specjalizacji nie tylko obsługuje bardziej niezawodne funkcje sztucznej inteligencji, ale także promuje większą efektywność energetyczną i ogólnie opłacalność.

Zmniejszenie obciążeń finansowych

Obciążenie finansowe związane z obliczeniami na potrzeby szkolenia i operacji w zakresie modeli sztucznej inteligencji pozostaje znaczne. Na przykład OpenAI od 2020 r. wykorzystuje rozbudowany superkomputer stworzony przez firmę Microsoft zarówno do szkolenia, jak i wnioskowania. Szkolenie modelu GPT-12 kosztowało OpenAI około 3 milionów dolarów, a wydatki wzrosły do $ 100 mln do szkolenia GPT-4. Według raport Według SemiAnalytics OpenAI potrzebuje około 3,617 serwerów HGX A100, łącznie 28,936 0.36 procesorów graficznych, do obsługi ChatGPT, co podnosi średni koszt zapytania do około XNUMX dolara. Według Bloomberga, mając na uwadze te wysokie koszty, Sam Altman, dyrektor generalny OpenAI, podobno poszukuje znacznych inwestycji w celu zbudowania ogólnoświatowej sieci zakładów produkujących chipy AI raport.

Wykorzystanie kontroli i innowacji

Chipy AI innych firm często mają ograniczenia. Firmy korzystające z tych chipów mogą napotkać ograniczenia w postaci gotowych rozwiązań, które nie są w pełni zgodne z ich unikalnymi modelami lub aplikacjami AI. Własny rozwój chipów pozwala na dostosowanie do konkretnych przypadków użycia. Niezależnie od tego, czy chodzi o samochody autonomiczne, czy urządzenia mobilne, kontrolowanie sprzętu umożliwia firmom pełne wykorzystanie algorytmów sztucznej inteligencji. Dostosowane chipy mogą usprawnić określone zadania, zmniejszyć opóźnienia i poprawić ogólną wydajność.

Najnowsze postępy w rozwoju chipów AI

W tej sekcji opisano najnowsze postępy Google, Meta i Amazon w tworzeniu technologii chipów AI.

Procesory Axion firmy Google

Od czasu wprowadzenia technologii chipów Google stale rozwija się w dziedzinie technologii chipów AI Jednostka przetwarzająca Tensor (TPU) w 2015 r. Opierając się na tym fundamencie, Google niedawno uruchomił usługę Procesory Axion, pierwsze niestandardowe procesory zaprojektowane specjalnie dla centrów danych i obciążeń AI. Procesory te oparte są na architekturze Arm, znanej ze swojej wydajności i kompaktowej konstrukcji. Celem procesorów Axion jest zwiększenie efektywności uczenia i wnioskowania AI opartego na procesorze, przy jednoczesnym zachowaniu efektywności energetycznej. Ten postęp oznacza również znaczną poprawę wydajności różnych obciążeń ogólnego przeznaczenia, w tym serwerów sieci Web i aplikacji, konteneryzowanych mikrousług, baz danych typu open source, pamięci podręcznej w pamięci, silników analizy danych, przetwarzania multimediów i nie tylko.

MTIA Meta

Meta rozwija technologię chipów AI dzięki swoim Akcelerator metaszkolenia i wnioskowania (MTIA). Narzędzie to ma na celu zwiększenie efektywności procesów uczenia i wnioskowania, szczególnie w przypadku algorytmów rankingowych i rekomendacyjnych. Niedawno Meta przedstawiła, w jaki sposób MTIA stanowi kluczowy element jej strategii mającej na celu wzmocnienie infrastruktury sztucznej inteligencji wykraczającej poza procesory graficzne. Początkowo premiera miała nastąpić w 2025 r., Meta wprowadziła już do produkcji obie wersje MTIA, wykazując szybsze tempo realizacji swoich planów rozwoju chipów. Podczas gdy MTIA koncentruje się obecnie na szkoleniu określonych typów algorytmów, Meta ma zamiar rozszerzyć swoje zastosowanie, aby uwzględnić szkolenie w zakresie generatywnej sztucznej inteligencji, takiej jak jej Modele języka lamy.

Trainium i Inferentia firmy Amazon

Od czasu wprowadzenia swojego zwyczaju Chip nitro w 2013 roku Amazon znacznie rozszerzył rozwój chipów AI. Firma zaprezentowała niedawno dwa innowacyjne chipy AI, Trening oraz Inferencja. Trainium zaprojektowano specjalnie w celu usprawnienia szkolenia w zakresie modeli sztucznej inteligencji i ma zostać do niego włączone Ultraklastry EC2. Klastry te, zdolne pomieścić do 100,000 XNUMX chipów, są zoptymalizowane pod kątem uczenia modeli podstawowych i dużych modeli językowych w sposób energooszczędny. Z drugiej strony Inferentia jest dostosowana do zadań wnioskowania, w których aktywnie stosowane są modele AI, koncentrując się na zmniejszaniu opóźnień i kosztów podczas wnioskowania, aby lepiej służyć potrzebom milionów użytkowników wchodzących w interakcję z usługami opartymi na sztucznej inteligencji.

Bottom Line

Ruch w kierunku wewnętrznego opracowywania niestandardowych chipów AI przez duże firmy, takie jak Google, Microsoft i Amazon, odzwierciedla strategiczną zmianę mającą na celu zaspokojenie rosnących potrzeb obliczeniowych technologii AI. Tendencja ta podkreśla potrzebę stosowania rozwiązań specjalnie dostosowanych do skutecznego wspierania modeli sztucznej inteligencji, spełniających unikalne wymagania tych zaawansowanych systemów. W miarę ciągłego wzrostu popytu na chipy AI liderzy branży, tacy jak Nvidia, prawdopodobnie odnotują znaczny wzrost wyceny rynkowej, co podkreśla kluczową rolę, jaką odgrywają niestandardowe chipy w rozwoju innowacji AI. Tworząc własne chipy, ci giganci technologiczni nie tylko zwiększają wydajność i efektywność swoich systemów AI, ale także promują bardziej zrównoważoną i opłacalną przyszłość. Ta ewolucja wyznacza nowe standardy w branży, napędzając postęp technologiczny i przewagę konkurencyjną na szybko zmieniającym się rynku globalnym.

Dr Tehseen Zia jest profesorem nadzwyczajnym na Uniwersytecie COMSATS w Islamabadzie oraz posiada tytuł doktora w dziedzinie sztucznej inteligencji uzyskany na Politechnice Wiedeńskiej w Austrii. Specjalizuje się w sztucznej inteligencji, uczeniu maszynowym, nauce danych i wizji komputerowej, wniósł znaczący wkład w postaci publikacji w renomowanych czasopismach naukowych. Dr Tehseen kierował także różnymi projektami przemysłowymi jako główny badacz i pełnił funkcję konsultanta ds. sztucznej inteligencji.