Artificiell intelligens
PyTorch Foundation Integrerar Ray, ett Ramverk för Distribuerad Beräkning, för att Bygga en Enhetlig AI-infrastrukturstack

Den öppna källkods- AI-ekosystemet tog ett avgörande steg framåt idag när PyTorch Foundation meddelade att Ray, ramverket för distribuerad beräkning som ursprungligen utvecklades av Anyscale, officiellt har anslutit sig till dess led. Detta steg markerar en betydande utveckling mot en enhetlig, samverkande och produktionsklar AI-beräkningsstack – en som binder samman de grundläggande lagren för modellutveckling (PyTorch), distribuerad inferens (vLLM) och storskalig exekvering (Ray).
En Enhetlig Grund för Öppen Källkods-AI
Värd under Linux Foundation, fungerar PyTorch Foundation som en central nav för några av de viktigaste öppna källkods AI-teknologierna. Dess uppdrag är att minska fragmentering och främja samarbete över alla faser av AI-utveckling. Genom att integrera Ray bredvid PyTorch och vLLM, levererar stiftelsen det som branschen länge har behövt – en sammanhängande, änd-till-änd-stack för att bygga, träna och distribuera AI i stor skala.
Ray:s inkludering representerar också kulminationen av år av akademisk och industriell utveckling. Född vid UC Berkeley:s RISELab, var Ray utformat för att förenkla distribuerad beräkning för AI- och maskinlärningsarbetsbelastningar. Det möjliggör för utvecklare att skala jobb sömlöst från en enda laptop till tusentals maskiner utan att skriva om kod eller hantera komplexa system. Idag har Ray mer än 39 000 GitHub-stjärnor och över 214 miljoner nedladdningar, vilket gör det till ett av de mest antagna ramverken för distribuerad beräkning i världen.
Hur Ray Kompletterar PyTorch och vLLM
Ray sitter mellan tränings- och inferensramverken (såsom PyTorch, DeepSpeed och vLLM) och containerns orkestreringslager (som Kubernetes eller Slurm). Denna position möjliggör för Ray att koordinera distribuerade arbetsbelastningar effektivt medan det broar gapet mellan modellträning och produktionsklar distribution.
Ray:s nyckelfunktioner inkluderar:
- Multimodal data bearbetning: Hanterar massiva, diversa dataset – text, bilder, ljud och video – i parallell, vilket maximerar genomströmning och effektivitet.
- Förträning och efterjustering: Skalar PyTorch och andra ramverk över tusentals GPU:er för både förträning och finjustering av uppgifter.
- Distribuerad inferens: Distribuerar modeller i produktion med hög genomströmning och låg latens, dynamiskt hanterar arbetsbelastningsutbrott över heterogena kluster.
Tillsammans gör dessa funktioner Ray “limmet” som binder samman modellskapande, optimering och servering, och bildar effektivt distribuerad beräkningsmotor-lagret i modern AI-infrastruktur.
Vad Detta Betyder för Utvecklare och Företag
I dagens AI-drivna ekonomi står organisationer inför enorma utmaningar kring skalbarhet, leverantörsbundenhet och beräkningsineffektivitet. Proprietära system fragmenterar ofta arbetsflöden och bromsar innovation. Med Ray som ansluter sig till PyTorch Foundation, får utvecklare en fullständigt öppen källkods-, samverkande beräkningsstack som eliminerar många av dessa smärtor.
Som Matt White, GM för AI på Linux Foundation, förklarade, möjliggör detta samarbete “att förena de kritiska komponenterna som behövs för att bygga nästa generations AI-system.” Enheten tillåter team att utveckla avancerade AI-system – från stora språkmodeller till multimodala applikationer – utan att förlita sig på stängda, proprietära infrastrukturer. Istället kan utvecklare träna och distribuera AI-modeller med hjälp av ett ekosystem som är skalbart, modulärt och community-driven.
De Vidare Implikationerna för Öppen Källkods-AI
Samarbetet mellan PyTorch, vLLM och Ray pekar mot en ny era av öppen beräknings-samverkansbarhet. Med Linux Foundation som tillhandahåller neutral styrning, får AI-branschen en hållbar modell för att utveckla delad infrastruktur – liknande hur Kubernetes standardiserade moln-orkesering.
Branschledare ekade denna känsla. Chris Aniszczyk från Cloud Native Computing Foundation noterade att “Ray och Kubernetes är naturligt komplementära,” kombinerar orkestrering och distribuerad beräkningens styrkor för att driva nästa generations AI-system. Uber:s tekniska chef, Zhitao Li, tillade att Ray redan är en “kärndel” av deras AI-plattform, som driver storskalig träning och data bearbetning. Och Meta:s Joe Spisak, en PyTorch Foundation-styrelsemedlem, kallade Ray:s tillägg för en “betydande milstolpe för öppen källkods-AI,” betonande hur det skapar en enhetlig, community-driven beräkningsstack.
Blickar Framåt
Anyscale:s medgrundare Robert Nishihara sammanfattade milstolpen koncist:
“Vårt mål är att göra distribuerad beräkning lika enkelt som att skriva Python-kod. Att ansluta sig till PyTorch Foundation säkerställer att Ray fortsätter att vara en öppen, community-driven ryggrad för utvecklare.”
Utvecklare och bidragsgivare kan engagera sig i projektet via Ray GitHub-repositoriet eller delta i Ray Summit 2025 i San Francisco i november, där communityn kommer att ytterligare utforska vad denna nya öppna källkods-stiftelse betyder för framtiden för AI-skalbarhet och tillgänglighet.
I själva verket kompletterar Ray:s tillägg det saknade lagret i det öppna källkods-AI-ekosystemet – binder samman modellering, inferens och distribuerad exekvering under en stiftelse. Det är ett avgörande steg mot en framtid där AI-infrastruktur inte bara är mer kraftfull utan också mer öppen, effektiv och utvecklarvänlig.












