Kunstig intelligens
PyTorch Foundation Integrerer Ray, et Distribuert Regneark, for å Bygge en Samlet AI-infrastrukturstack

Det åpne kildekode AI-økosystemet tok et avgjørende skritt fremover i dag da PyTorch Foundation annonserte at Ray, det distribuerte regnearket som opprinnelig ble utviklet av Anyscale, har offisielt sluttet seg til deres rekker. Bevegelsen markerer et betydelig skritt mot en samlet, interoperabel og produksjonsklar AI-regnearkstack – en som binder sammen de grunnleggende lagene av modellutvikling (PyTorch), distribuert inferens (vLLM) og stor skala eksekvering (Ray).
En Samlet Grunn for Åpen Kildekode AI
Værtert under Linux Foundation, fungerer PyTorch Foundation som en sentral hub for noen av de viktigste åpne kildekode AI-teknologiene. Dens misjon er å redusere fragmentering og fremme samarbeid over hver fase av AI-utvikling. Ved å integrere Ray sammen med PyTorch og vLLM, leverer stiftelsen det industrien lenge har trengt – en samlet, sluttpunkt-til-sluttpunkt-stack for bygging, trening og distribusjon av AI i stor skala.
Ray’s inklusjon representerer også kulminasjonen av år med akademisk og industriell evolusjon. Født ved UC Berkeley’s RISELab, ble Ray designet for å forenkle distribuert regneark for AI og maskinlæring arbeidsbyrder. Det muliggjør for utviklere å skalerer jobber sømløst fra en enkelt laptop til tusenvis av maskiner uten å skrive om kode eller håndtere komplekse systemer. Per i dag, har Ray over 39 000 GitHub-stjerner og over 214 millioner nedlastinger, noe som gjør det til ett av de mest vidt aksepterte distribuerte regnearkene i verden.
Hvordan Ray Komplementerer PyTorch og vLLM
Ray sitter mellom trenings- og inferensrammeverkene (som PyTorch, DeepSpeed og vLLM) og container-koordineringslaget (som Kubernetes eller Slurm). Denne posisjonen tillater Ray å koordinere distribuerte arbeidsbyrder effektivt mens den broer gapet mellom modelltrening og produksjonsskala distribusjon.
Ray’s nøkkelkapasiteter inkluderer:
- Flervaluedataforedling: Behandler massive, diverse datasett – tekst, bilder, lyd og video – i parallell, maksimerer gjennomstrømming og effisiens.
- For-trening og etter-justering: Skalerer PyTorch og andre rammeverk over tusenvis av GPU-er for både for-trening og fin-justering oppgaver.
- Distribuert inferens: Distribuerer modeller i produksjon med høy gjennomstrømming og lav forsinkelse, dynamisk håndtering av arbeidsbyrd-børster over heterogene cluster.
Sammen gjør disse funksjonene Ray til “limen” som binder sammen modellskapelse, optimalisering og tjeneste, og danner effektivt distribuert regnearkmotoren laget i moderne AI-infrastruktur.
Hva Dette Betyr for Utviklere og Bedrifter
I dagens AI-drevne økonomi, står organisasjoner overfor enorme utfordringer rundt skalerbarhet, leverandør-lås og regnearkeffisiens. Proprietære systemer fragmenterer ofte arbeidsflyter og bremser innovasjon. Med Ray som slutter seg til PyTorch Foundation, får utviklere en fullstendig åpen kildekode, interoperabel regnearkstack som eliminerer mange av disse smertepunktene.
Som Matt White, GM av AI i Linux Foundation, forklarte, gjør dette samarbeidet “samler de kritiske komponentene nødvendige for å bygge neste-generasjons AI-systemer.” Samlingen tillater team å utvikle avanserte AI-systemer – fra store språkmodeller til multimodale applikasjoner – uten å være avhengig av lukkede, proprietære infrastrukturer. I stedet kan utviklere trene og distribuere AI-modeller ved å bruke et økosystem som er skalerbart, modulært og community-drevet.
De Videre Implikasjonene for Åpen Kildekode AI
Samarbeidet mellom PyTorch, vLLM og Ray peker mot en ny æra av åpen regneark-interoperabilitet. Med Linux Foundation som gir nøytral styring, får AI-industrien en bærekraftig modell for å utvikle felles infrastruktur – lignende hvordan Kubernetes standardiserte sky-koordinering.
Industri-ledere gjentok denne holdningen. Chris Aniszczyk av Cloud Native Computing Foundation noterte at “Ray og Kubernetes er naturlig komplementære,” kombinere koordinering og distribuert regneark-styrker for å drive neste-generasjons AI-systemer. Uber’s direktør for ingeniørarbeid, Zhitao Li, la til at Ray allerede er en “kjerne-del” av deres AI-plattform, som driver stor skala trening og dataforedling. Og Meta’s Joe Spisak, en PyTorch Foundation styremedlem, kalte Ray’s tillegg en “betydelig milepæl for åpen kildekode AI,” understreket hvordan det skaper en samlet, community-drevet regnearkstack.
Se Fremover
Anyscale’s med-grunnlegger Robert Nishihara sammenfattet milepælen konsist:
“Vårt mål er å gjøre distribuert regneark like enkelt som å skrive Python-kode. Å slutte seg til PyTorch Foundation sikrer at Ray fortsetter å være en åpen, community-drevet ryggrad for utviklere.”
Utviklere og bidragsytere kan engasjere seg med prosjektet via Ray GitHub-repositoriet eller delta på Ray Summit 2025 i San Francisco i november, hvor samfunnet vil videre utforske hva denne nye åpne kildekode-grunnleggingen betyr for fremtiden av AI-skalerbarhet og tilgjengelighet.
I essensen fullfører tillegget av Ray det manglende laget i det åpne kildekode AI-økosystemet – bringer sammen modellering, inferens og distribuert eksekvering under en grunn. Det er et avgjørende skritt mot en fremtid hvor AI-infrastruktur ikke bare er mer kraftfull, men også mer åpen, effektiv og utvikler-vennlig.












