Connect with us

Lightning AI i Voltage Park ogłaszają połączenie w celu zdefiniowania na nowo chmury AI

Sztuczna inteligencja

Lightning AI i Voltage Park ogłaszają połączenie w celu zdefiniowania na nowo chmury AI

mm

Dziś, Lightning AI ogłosiło zakończenie połączenia z Voltage Park, łącząc oprogramowanie rodzime dla AI i infrastrukturę GPU w ramach jednej platformy. Działając pod nazwą Lightning AI, połączona spółka pozycjonuje się jako pełna chmura AI zaprojektowana specjalnie do szkolenia, wdrażania i uruchamiania nowoczesnych modeli i aplikacji AI.

Lightning AI dociera do tego momentu z znaczącą skalą i zasięgiem dla deweloperów. Platforma jest używana przez ponad 400 000 deweloperów, startupów i dużych przedsiębiorstw, a spółka jest również odpowiedzialna za PyTorch Lightning, framework zaufany przez ponad 5 milionów deweloperów i przedsiębiorstw na całym świecie. To znaczenie ma wpływ: oznacza to, że oprogramowanie Lightning jest już głęboko osadzone w badaniach, eksperymentach i produkcyjnych przepływach pracy AI.

Voltage Park uzupełnia to o przyjęcie oprogramowania z infrastrukturą. W ramach połączenia użytkownicy Lightning zyskują dostęp do 35 000+ GPU, w tym H100, B200 i GB300-class sprzętu, umożliwiając duże szkolenia, inferencję i pojemność wybuchową bez polegania wyłącznie na zewnętrznych hyperscalerach.

Łączenie oprogramowania i obliczeń w skali

Przed tym połączeniem większość zespołów AI musiała stawić czoła niekomfortowej wymianie. Tradycyjne chmury były zaprojektowane dla obciążeń CPU, takich jak strony internetowe i usługi przedsiębiorstw, a nie dla intensywnych szkoleń lub inferencji. W odpowiedzi na to rynek wypełnił się narzędziami o pojedynczym celu – jedną platformą do szkolenia, inną do inferencji, inną do obserwacji – oraz oddzielnymi dostawcami GPU i procesami zakupowymi.

Połączenie Lightning-Voltage Park jest wyraźnie zaprojektowane, aby zlikwidować te warstwy. Stos oprogramowania Lightning pozwala już zespołom szkolić modele, wdrażać je do produkcji i uruchamiać duże szkolenia z zintegrowanego środowiska. Poprzez połączenie tego oprogramowania z infrastrukturą GPU, spółka ma na celu usunięcie głównego źródła tarcia: koordynowania możliwości oprogramowania z dostępnością, ceną i wydajnością obliczeń.

Założyciel i CEO Lightning William Falcon scharakteryzował bieżący stan narzędzi AI jako niepotrzebnie fragmentaryczny – porównując go do noszenia oddzielnych urządzeń do podstawowych funkcji zamiast korzystania z jednego zintegrowanego produktu. Połączenie jest pozycjonowane jako sposób dostarczenia tego zintegrowanego doświadczenia dla zespołów AI, od studentów do przedsiębiorstw o skali Fortune.

Co się zmienia – i co nie – dla klientów

Dla istniejących klientów spółki podkreślają ciągłość. Nie ma zmian w umowach lub wdrożeniach, i nie ma wymuszonych migracji. Wspieranie wielu chmur pozostaje kluczowym elementem platformy Lightning: zespoły mogą nadal uruchamiać Lightning na AWS lub innych dostawcach chmury i przerwać obciążenia do własnej infrastruktury GPU Lightning, gdy potrzebują dodatkowej pojemności.

To, co się zmienia, to zakres. Klienci Voltage Park zyskują opcjonalny dostęp do oprogramowania AI Lightning – obejmującego obsługę modeli, zarządzanie zespołami i obserwację – bez nakładania dodatkowych narzędzi o pojedynczym celu. Klienci Lightning zyskują z kolei dostęp do dużych pul GPU zaprojektowanych dla obciążeń AI, zamiast adaptowania ogólnego celu infrastruktury chmury.

Ta hybrydowa postawa jest godna uwagi. Zamiast pozycjonowania się jako zastępstwo dla hyperscalerów, Lightning AI prezentuje się jako warstwa rodzima dla AI, która może współistnieć z istniejącymi inwestycjami w chmurę, jednocześnie oferując ściślejszą integrację, gdy wymagają tego wydajność lub ekonomia.

Integracja pionowa jako przewaga konkurencyjna

Powtarzającym się motywem w branżowych reakcjach na połączenie jest integracja pionowa. W miarę wzrostu modeli AI i widoczności kosztów inferencji wydajność, efektywność kosztów i szybkość iteracji coraz bardziej zależą od tego, jak ściśle oprogramowanie i infrastruktura są połączone.

Dyrektorzy i przywódcy branży cytowani w ogłoszeniu twierdzą, że kontrolowanie większości stosu staje się niezbędne. Pomysł jest prosty: gdy oprogramowanie, ekspertyza optymalizacyjna i obliczenia są zaprojektowane razem, zespoły mogą dostroić systemy w sposób holistyczny, zamiast kompensować niepasujące warstwy. W środowisku, w którym niewielkie zyski wydajności mogą przekładać się na miliony oszczędności, ta integracja staje się strategiczna, a nie kosmetyczna.

To odbija wcześniejsze przejścia chmury. Podobnie jak hyperscalery przekształciły erę internetu, ściśle integrując obliczenia, pamięć masową i sieć, platformy rodzime dla AI pojawiają się teraz, traktując GPU, orchestrację i narzędzia AI jako jeden system.

Szersze implikacje dla rynku chmury AI

Wydając się na szerszy plan, połączenie Lightning AI-Voltage Park odzwierciedla szerszy trend konsolidacji w infrastrukturze AI. Wczesne fale adopcji AI wytworzyły fragmentaryczny ekosystem narzędzi rozwiązujących wąskie problemy. W miarę przechodzenia AI z eksperymentów do podstawowych operacji biznesowych, przedsiębiorstwa coraz bardziej priorytetowo traktują prostsze stosy, przewidywalne koszty i mniej punktów integracji.

Połączenia takie sugerują trzy większe przesunięcia:

  • Platformy AI-rodzime zamiast łańcuchów narzędzi
    Zespoły przesuwają się w kierunku systemów końca do końca zaprojektowanych dla obciążeń AI, zamiast montowania kruchych kombinacji rozwiązań punktowych.

  • Nowe naciski na hyperscalery
    Chociaż hyperscalery pozostają dominujące, platformy AI-pierwsze mogą konkurować ze skupieniem – dostępnością GPU, ekonomią inferencji i przepływami pracy zaprojektowanymi specjalnie dla rozwoju modelu.

  • Konsolidacja jako rów
    Posiadanie oprogramowania i infrastruktury pozwala dostawcom kontrolować wąskie gardła w wydajności, cenie i niezawodności, zmieniając integrację pionową w długoterminową przewagę konkurencyjną.

W tym sensie to połączenie jest mniej skali dla samej siebie, a bardziej kierunkiem. Sygnalizuje, dokąd zmierza rynek chmury AI: ku zintegrowanym, AI-rodzajowym stosom zaprojektowanym, aby sprawić, że budowanie i uruchamianie modeli będzie mniej przypominało zarządzanie infrastrukturą – a bardziej wydawało się prawdziwymi systemami z prędkością.

Antoine jest wizjonerskim liderem i współzałożycielem Unite.AI, z niezachwianą pasją do kształtowania i promowania przyszłości sztucznej inteligencji i robotyki. Jako serialowy przedsiębiorca, uważa, że sztuczna inteligencja będzie tak samo przełomowa dla społeczeństwa, jak elektryczność, i często zachwycany jest potencjałem technologie przełomowych i AGI. Jako futurysta, poświęca się badaniu, jak te innowacje ukształtują nasz świat. Ponadto jest założycielem Securities.io, platformy skupiającej się na inwestowaniu w najnowocześniejsze technologie, które przeobrażają przyszłość i zmieniają całe sektory.