Partnerstwa
OpenAI korzysta z usług Cerebras, aby pozyskać 10 miliardów dolarów na obliczenia o niskim opóźnieniu

Firma OpenAI ogłosiła wieloletnią umowę ze start-upem produkującym układy scalone Cerebras Systems, na mocy której producentowi ChatGPT zostanie dostarczone 750 megawatów dedykowanej mocy obliczeniowej AI. Obie firmy opisują to jako największe wdrożenie wnioskowania o dużej prędkości kiedykolwiek próbował.
Umowa, szacowana na ponad 10 miliardów dolarów, według źródeł zaznajomionych z warunkami umowy, stanowi najważniejszą inwestycję OpenAI w infrastrukturę poza podstawową współpracą z Microsoftem. Cerebras będzie budować i hostować systemy etapami do 2028 roku, a pierwsze systemy zostaną uruchomione w tym roku.
Partnerstwo ma na celu rozwiązanie konkretnego problemu: szybkości. Chociaż OpenAI skalowało ChatGPT do 800 milionów użytkowników tygodniowofirma zmaga się z ograniczeniami obliczeniowymi, które wydłużają czas reakcji — szczególnie w przypadku wymagających obciążeń, takich jak generowanie kodu, zadania agentowe i interakcja głosowa w czasie rzeczywistym.
„Cerebras dodaje do naszej platformy dedykowane rozwiązanie do wnioskowania o niskim opóźnieniu” – powiedział Sachin Katti, kierujący strategią obliczeniową OpenAI. „To oznacza szybsze reakcje, bardziej naturalne interakcje i solidniejszą podstawę do skalowania sztucznej inteligencji w czasie rzeczywistym dla znacznie większej liczby osób”.
Dlaczego krzem w skali wafli ma znaczenie
Prezentacja Cerebras koncentruje się na procesorach wielkości wafli – chipach wielkości talerzy obiadowych, które eliminują opóźnienia komunikacyjne typowe dla systemów złożonych z wielu mniejszych procesorów graficznych. Firma twierdzi, że jej architektura zapewnia prędkość wnioskowania do 15 razy większą niż alternatywy oparte na procesorach graficznych, a modele takie jak GPT-OSS-120B działają z prędkością około 3,000 tokenów na sekundę.
W przypadku OpenAI ta szybkość przekłada się bezpośrednio na doświadczenie użytkownika. Gdy sztuczna inteligencja reaguje w czasie rzeczywistym – bez opóźnień, które sprawiają, że rozmowy wydają się sztuczne – użytkownicy angażują się głębiej i osiągają więcej. Firma przetestowała krzem Cerebras z modelami open-weight przed Świętem Dziękczynienia, a rozmowy techniczne między zespołami szybko przerodziły się w podpisanie arkusza warunków, jak twierdzi Andrew Feldman, dyrektor generalny Cerebras.
„Tak jak szerokopasmowy dostęp do Internetu zrewolucjonizował internet, wnioskowanie w czasie rzeczywistym zrewolucjonizuje sztuczną inteligencję” – powiedział Feldman. „Umożliwi to zupełnie nowe sposoby budowania modeli sztucznej inteligencji i interakcji z nimi”.
Porównanie nie jest przesadą. Wczesny internet dial-up obsługiwał pocztę e-mail i podstawowe przeglądanie stron internetowych; szerokopasmowy streaming wideo, połączenia głosowe i w końcu ekonomię aplikacji na smartfony. OpenAI zdaje się zakładać, że wystarczająco szybkie wnioskowanie w podobny sposób odblokuje aplikacje, które obecne opóźnienia czynią niepraktycznymi – szczególnie dla agentów AI, którzy muszą łączyć wiele operacji, nie tracąc ludzkiej cierpliwości.
Wyścig zbrojeń infrastrukturalnych przybiera na sile
Umowa z Cerebras jest Wyceny infrastruktury AI gwałtownie wzrosły – Databricks niedawno pozyskał 134 miliardy dolarów, a sam Cerebras podobno prowadzi rozmowy o nowym finansowaniu z wyceną na 22 miliardy dolarów. Wymagania obliczeniowe pionierskich modeli sztucznej inteligencji nie wykazują oznak stagnacji, a firmy starają się zabezpieczyć moce przerobowe, zanim zrobi to konkurencja.
Dla Cerebras, partnerstwo z OpenAI rozwiązuje problem koncentracji biznesu. W pierwszej połowie 2024 roku spółka G42 ze Zjednoczonych Emiratów Arabskich odpowiadała za 87% przychodów Cerebras – koncentracja klientów, która wzbudziła niepokój inwestorów. Dodanie OpenAI jako głównego klienta przed potencjalnym debiutem giełdowym znacząco zmniejsza ryzyko biznesowe.
Dla OpenAI transakcja ta dywersyfikuje jej działalność Infrastruktura sztucznej inteligencji poza chmurą Azure firmy Microsoft. Chociaż Microsoft pozostaje głównym dostawcą mocy obliczeniowej dla OpenAI, partnerstwo z Cerebras zapewnia OpenAI dedykowaną moc obliczeniową o niskim opóźnieniu, zoptymalizowaną specjalnie pod kątem wnioskowania – inne obciążenie niż to, które obsługuje infrastruktura Microsoftu.
Czas również ma znaczenie. OpenAI niedawno wydało GPT-5.2 W obliczu rosnącej konkurencji ze strony Google Gemini. Wraz ze wzrostem możliwości modeli, firmy je wdrażające odkrywają, że sama inteligencja nie wystarczy – użytkownicy oczekują również niemal natychmiastowych odpowiedzi. Genialna sztuczna inteligencja, która potrzebuje dziesięciu sekund na odpowiedź, wydaje się zepsuta; ta sama sztuczna inteligencja reagująca w mniej niż sekundę wydaje się magiczna.
Sam Altman, prezes OpenAI, jest już inwestorem w Cerebras, a OpenAI rozważało kiedyś przejęcie firmy. Ta umowa sugeruje, że relacja ewoluuje w kierunku czegoś bardziej strategicznego: partnerstwa, w którym losy obu firm splatają się w wyścigu o to, by sztuczna inteligencja stała się prawdziwie konwersacyjna.












