Connect with us

OpenAI Taps Cerebras for $10 Billion in Low-Latency Compute

Partnerstwa

OpenAI Taps Cerebras for $10 Billion in Low-Latency Compute

mm

OpenAI ogłosił umowę wieloletnią z startupem Cerebras Systems, która dostarczy 750 megawatów dedykowanej AI obliczeniowej do producenta ChatGPT, co obie firmy opisują jako największe w historii wdrożenie wysokoszybkiej inferencji.

Umowa, wartą ponad 10 miliardów dolarów według osób znających warunki, stanowi największą inwestycję infrastrukturalną OpenAI poza jego podstawową relacją z Microsoftem. Cerebras wybuduje i będzie hostować systemy w fazach do 2028 roku, przy czym pierwsza pojemność zostanie uruchomiona w tym roku.

Partnerstwo dotyczy konkretnego problemu: szybkości. Podczas gdy OpenAI skalibruje ChatGPT do 800 milionów użytkowników tygodniowo, firma napotyka ograniczenia obliczeniowe, które spowalniają czasy odpowiedzi – szczególnie dla wymagających obciążeń, takich jak generowanie kodu, zadania agentywne i interakcje głosowe w czasie rzeczywistym.

“Cerebras dodaje do naszej platformy dedykowane rozwiązanie do niskiej latencji”, powiedział Sachin Katti, który kieruje strategią obliczeniową OpenAI. “To oznacza szybsze odpowiedzi, bardziej naturalne interakcje i silniejszą podstawę do skalowania AI w czasie rzeczywistym do wielu więcej ludzi”.

Dlaczego wafer-scale krzem ma znaczenie

Oferta Cerebras opiera się na procesorach wafer-scale – chipach o rozmiarze talerza, które eliminują opóźnienia w komunikacji wynikające z systemów składanych z wielu mniejszych GPU. Firma twierdzi, że jej architektura dostarcza prędkości inferencji nawet 15 razy szybsze niż alternatywy oparte na GPU, z modelami takimi jak GPT-OSS-120B, które działają z prędkością około 3000 tokenów na sekundę.

Dla OpenAI ta szybkość przekłada się bezpośrednio na doświadczenie użytkownika. Gdy AI odpowiada w czasie rzeczywistym – bez opóźnień, które sprawiają, że rozmowy wydają się sztuczne – użytkownicy angażują się głębiej i osiągają więcej. Firma przetestowała krzem Cerebras z modelem open-weight przed Świętem Dziękczynienia, a rozmowy techniczne między zespołami szybko eskalowały do podpisanej umowy, według CEO Cerebras Andrew Feldman.

“Podobnie jak szerokopasmowy internet przekształcił internet, inferencja w czasie rzeczywistym przekształci AI”, powiedział Feldman. “To umożliwia całkowicie nowe sposoby budowania i interakcji z modelami AI”.

Porównanie nie jest przesadą. Wczesny internet dial-up wspierał pocztę elektroniczną i podstawowe przeglądanie; szerokopasmowy internet umożliwił strumieniowanie wideo, połączenia głosowe i ostatecznie gospodarkę aplikacji na smartfony. OpenAI wydaje się obstawiać, że odpowiednio szybka inferencja odblokuje w podobny sposób aplikacje, które obecna latencja czyni niepraktycznymi – szczególnie dla agentów AI, które muszą łączyć wiele operacji bez cierpliwości ludzi.

Wyścig zbrojeń w infrastrukturze nasila się

Umowa Cerebras pochodzi w momencie, gdy wartości infrastruktury AI wybuchły, z Databricks, które niedawno podniosły wartość do 134 miliardów dolarów, a Cerebras sam jest rzekomo w rozmowach o świeżym finansowaniu przy wartości 22 miliardów dolarów. Wymagania obliczeniowe modeli AI na granicy nie pokazują żadnych oznak spowolnienia, a firmy walczą o zablokowanie pojemności przed konkurentami.

Dla Cerebras partnerstwo z OpenAI rozwiązuje problem koncentracji biznesu. Zjednoczone Emiraty Arabskie G42 stanowiły 87% przychodu Cerebras w pierwszej połowie 2024 roku – koncentracja klienta, która sprawiła, że inwestorzy stali się nerwowi. Dodanie OpenAI jako głównego klienta przed potencjalnym IPO znacznie redukuje ryzyko biznesu.

Dla OpenAI umowa dywersyfikuje infrastrukturę AI poza chmurą Microsoft Azure. Podczas gdy Microsoft pozostaje głównym dostawcą obliczeń OpenAI, partnerstwo z Cerebras daje OpenAI dedykowaną pojemność niskiej latencji zoptymalizowaną specjalnie do inferencji – innego rodzaju obciążenia niż te, które obsługuje infrastruktura Microsoftu.

Czas także ma znaczenie. OpenAI niedawno wydał GPT-5.2 wśród nasilającej się konkurencji z Google Gemini. Gdy modele stają się coraz bardziej zdolne, firmy wdrażające je odkrywają, że surowa inteligencja nie jest wystarczająca – użytkownicy oczekują również niemal natychmiastowych odpowiedzi. Genialny AI, który odpowiada w ciągu dziesięciu sekund, wydaje się złamany; ten sam AI odpowiadający w czasie poniżej jednej sekundy wydaje się magiczny.

Sam Altman, CEO OpenAI, jest już inwestorem w Cerebras, a OpenAI kiedyś rozważał nabycie tej firmy. Umowa sugeruje, że relacja ewoluuje w coś bardziej strategicznego: partnerstwa, w którym losy obu firm stają się splecione w wyścigu, by uczynić AI prawdziwie konwersacyjnym.

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją, który bada najnowsze rozwoje w dziedzinie sztucznej inteligencji. Współpracował z licznymi startupami i wydawnictwami związanymi z sztuczną inteligencją na całym świecie.