Connect with us

Rebellions pozyskał 400 mln dolarów, gdy infrastruktura AI przechodzi na wdrożenie w skali, wyceniony na 2,34 mld dolarów

Finansowanie

Rebellions pozyskał 400 mln dolarów, gdy infrastruktura AI przechodzi na wdrożenie w skali, wyceniony na 2,34 mld dolarów

mm

Rebellions pozyskał 400 milionów dolarów w rundzie finansowania przed IPO, którą prowadzi Mirae Asset Financial Group oraz Korea National Growth Fund. Runda ta zwiększa całkowite finansowanie do 850 milionów dolarów i wycenia firmę na około 2,34 miliarda dolarów.

Zbieranie funduszy następuje zaledwie kilka miesięcy po 250 milionach dolarów Serii C, co podkreśla, jak szybko kapitał płynie w kierunku firm skupionych na jednym z najbardziej palących wyzwań AI: efektywnym uruchamianiu modeli w środowiskach produkcyjnych.

W tym samym czasie firma wprowadziła dwie nowe platformy infrastrukturalne, RebelRack i RebelPOD, mające na celu dostarczenie w pełni wdrożonych systemów AI dla rzeczywistych, dużych aplikacji.

Ograniczenie przesunęło się z treningu do inferencji

Przemysł AI wkracza w fazę, w której możliwość modelu nie jest już jedynym czynnikiem ograniczającym. Wyzwanie przesunęło się w kierunku inferencji, procesu uruchamiania modeli w produkcji na dużą skalę.

Organizacje mają obecnie do czynienia z praktycznymi ograniczeniami, takimi jak zużycie energii, złożoność wdrożenia i efektywność kosztowa. Te czynniki stają się krytyczne, gdy AI przechodzi z eksperymentów do podstawowych operacji biznesowych.

Rebellions pozycjonuje się bezpośrednio w tej warstwie. Zamiast koncentrować się na szkoleniu modeli, firma buduje infrastrukturę zaprojektowaną w celu uczynienia AI użytecznym, skalowalnym i ekonomicznie uzasadnionym w środowiskach rzeczywistych.

Podejście full-stack do infrastruktury inferencji

W centrum platformy znajduje się Rebel100 NPU, przyspieszacz oparty na chipletach, zaprojektowany specjalnie dla obciążeń inferencyjnych.

W przeciwieństwie do ogólnego przeznaczenia GPU, które są zoptymalizowane pod kątem treningu, Rebel100 jest zaprojektowany w celu zapewnienia wysokiej wydajności i niskiej latencji podczas uruchamiania modeli w produkcji. Nacisk kładziony jest na wydajność na wat i efektywność kosztową, oba te czynniki stają się krytyczne, gdy obciążenia AI się skalują.

Poza sprzętem Rebellions opracował chmurę oprogramowania, które integruje się z powszechnie używanymi frameworkami open-source, takimi jak PyTorch, vLLM, Triton i Hugging Face.

To podejście pozwala deweloperom wdrożyć modele bez potrzeby adaptacji do systemów własnościowych, redukując tarcie i umożliwiając elastyczność w różnych środowiskach. Platforma jest zbudowana na Kubernetes i obsługuje inferencję rozproszoną, co umożliwia skalowanie obciążeń, jednocześnie zapewniając spójne wdrożenie.

Od chipów do wdrożonych systemów

Z uruchomieniem RebelRack i RebelPOD, Rebellions rozszerza swoją strategię poza poszczególne przyspieszaczami w kierunku w pełni zintegrowanej infrastruktury.

RebelRack jest zaprojektowany jako gotowy do produkcji jednostka obliczeniowa inferencji, podczas gdy RebelPOD łączy wiele szaf w skalowalny klaster dla dużych wdrożeń.

Te systemy łączą sprzęt i oprogramowanie w modułową infrastrukturę, która może być wdrożona i powielona w centrach danych. Nacisk kładziony jest na umożliwienie organizacjom uruchamiania obciążeń AI w ramach istniejących limitów mocy i infrastruktury, zamiast wymagać całkowicie nowych obiektów.

To optymalizacja systemu odzwierciedla rosnące zapotrzebowanie na rozwiązania, które mogą przedłużyć żywotność bieżących inwestycji w centra danych, jednocześnie wspierając nowe aplikacje napędzane przez AI.

Rozszerzanie na rynki globalne

Rebellions przyspiesza teraz swoją ekspansję na rynki globalne, ze szczególnym uwzględnieniem Stanów Zjednoczonych.

Firma kieruje się w stronę dostawców chmury, operatorów telekomunikacyjnych i rządowych inicjatyw AI, które coraz bardziej priorytetowo traktują efektywną i wdrożoną infrastrukturę.

Ta ekspansja wpisuje się w szerszy trend w kierunku suwerennego AI, gdzie kraje i przedsiębiorstwa szukają większej kontroli nad swoimi możliwościami AI, zamiast polegać całkowicie na zewnętrznych dostawcach.

Przesunięcie w kierunku skalowalnej infrastruktury AI

Ekosystem AI przechodzi strukturalną transformację. Nacisk przenosi się z budowania większych modeli na to, jak te modele są wdrażane i uruchamiane w środowiskach rzeczywistych.

Trening pozostaje skoncentrowany wśród niewielkiej grupy graczy, ale powszechne przyjęcie zależy od inferencji, gdzie modele działają ciągle, aby napędzać aplikacje i usługi. To przesunięcie nadaje nowe znaczenie efektywności, kosztom, opóźnieniom i zużyciu mocy, a nie samemu surowemu obliczeniu.

Infrastruktura ewoluuje odpowiednio. Rosnące zapotrzebowanie na systemy, które integrują się z istniejącymi środowiskami, obsługują otwarte frameworki i skalują się bez potrzeby głębokich przebudów. Warstwy oprogramowania, które upraszczają wdrożenie i orchestrację, stają się równie krytyczne, jak podstawowy sprzęt.

Te zmiany kształtują konkurencję w całym przemyśle. Sukces jest coraz bardziej definiowany przez możliwość dostarczania niezawodnych, skalowalnych systemów, które działają pod rzeczywistymi ograniczeniami, jednocześnie dając organizacjom elastyczność i kontrolę nad tym, jak AI jest wdrażany.

Antoine jest wizjonerskim liderem i współzałożycielem Unite.AI, z niezachwianą pasją do kształtowania i promowania przyszłości sztucznej inteligencji i robotyki. Jako serialowy przedsiębiorca, uważa, że sztuczna inteligencja będzie tak samo przełomowa dla społeczeństwa, jak elektryczność, i często zachwycany jest potencjałem technologie przełomowych i AGI. Jako futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupiającej się na inwestowaniu w najnowocześniejsze technologie, które przeobrażają przyszłość i zmieniają całe sektory.