Kunstmatige intelligentie
PyTorch Foundation Integreert Ray, een Gedistribueerd Rekenkundig Framework, om een Geünificeerde AI-infrastructuurstack te Bouwen

De open source AI-ecosysteem heeft vandaag een beslissende stap voorwaarts gezet, aangezien de PyTorch Foundation heeft aangekondigd dat Ray, het gedistribueerde rekenkundige framework dat oorspronkelijk is ontwikkeld door Anyscale, officieel tot zijn rangen is toegetreden. Deze stap markeert een significante stap naar een geünificeerde, interoperabele en productieklare AI-computestack – een die de fundamentele lagen van modelontwikkeling (PyTorch), gedistribueerde inferentie (vLLM) en grootschalige uitvoering (Ray) met elkaar verbindt.
Een Geünificeerde Basis voor Open Source AI
Gehost onder de Linux Foundation, fungeert de PyTorch Foundation als een centraal knooppunt voor enkele van de meest belangrijke open source AI-technologieën. De missie is om fragmentatie te verminderen en samenwerking te bevorderen in elke fase van AI-ontwikkeling. Door Ray naast PyTorch en vLLM te integreren, levert de foundation wat de industrie al lang nodig had – een coherente, eind-tot-eind stack voor het bouwen, trainen en implementeren van AI op grote schaal.
Ray’s inclusie vertegenwoordigt ook de culminatie van jaren van academische en industriële evolutie. Geboren bij UC Berkeley’s RISELab, was Ray ontworpen om gedistribueerde computing voor AI- en machine learning-werklasten te vereenvoudigen. Het stelt ontwikkelaars in staat om taken naadloos te schalen van één laptop tot duizenden machines zonder code te herschrijven of complexe systemen te beheren. Tot op de dag van vandaag heeft Ray meer dan 39.000 GitHub-sterren en meer dan 214 miljoen downloads, waarmee het een van de meest breed geadopteerde gedistribueerde rekenkundige frameworks ter wereld is.
Hoe Ray PyTorch en vLLM Aanvult
Ray zit tussen de trainings- en inferentieframeworks (zoals PyTorch, DeepSpeed en vLLM) en de containerorkestratielaag (zoals Kubernetes of Slurm). Deze positie stelt Ray in staat om gedistribueerde werklasten efficiënt te coördineren en de kloof tussen modeltraining en productieschaalimplementatie te overbruggen.
Ray’s sleutelfunctionaliteiten omvatten:
- Multimodale gegevensverwerking: Verwerkt massive, diverse datasets – tekst, afbeeldingen, audio en video – in parallel, waardoor de doorvoer en efficiëntie worden gemaximaliseerd.
- Pre-training en post-tuning: Schaalt PyTorch en andere frameworks over duizenden GPUs voor zowel pre-training als fine-tuningtaken.
- Gedistribueerde inferentie: Implementeert modellen in productie met hoge doorvoer en lage latentie, waardoor workloadpieken dynamisch over heterogene clusters worden beheerd.
Samen maken deze functionaliteiten van Ray de “lijm” die modelcreatie, optimalisatie en service bindt, waardoor effectief de gedistribueerde compute-enginelaag van de moderne AI-infrastructuur wordt gevormd.
Wat Dit Betekent voor Ontwikkelaars en Bedrijven
In de huidige AI-gedreven economie worden organisaties geconfronteerd met immense uitdagingen rond schalen, vendor-lock-in en compute-inefficiëntie. Proprietary systemen fragmenteren vaak workflows en vertragen innovatie. Met Ray die zich bij de PyTorch Foundation voegt, krijgen ontwikkelaars een volledig open source, interoperabele compute-stack die veel van deze pijn punten elimineert.
Zoals Matt White, GM van AI bij de Linux Foundation, uitlegde, maakt deze samenwerking “de kritieke componenten verenigt die nodig zijn om next-generation AI-systemen te bouwen.” De unificatie stelt teams in staat om geavanceerde AI-systemen te ontwikkelen – variërend van grote taalmodellen tot multimodale toepassingen – zonder te vertrouwen op gesloten, propriëtaire infrastructuur. In plaats daarvan kunnen ontwikkelaars AI-modellen trainen en implementeren met behulp van een ecosysteem dat schaalbaar, modulair en community-gedreven is.
De Breder Implicaties voor Open Source AI
De samenwerking tussen PyTorch, vLLM en Ray wijst op een nieuwe era van open compute-interoperabiliteit. Met de Linux Foundation die neutrale governance biedt, krijgt de AI-industrie een duurzaam model voor het ontwikkelen van gedeelde infrastructuur – vergelijkbaar met hoe Kubernetes cloudorkestratie standaardiseerde.
Industriële leiders weerspiegelden deze gevoelens. Chris Aniszczyk van de Cloud Native Computing Foundation merkte op dat “Ray en Kubernetes zijn natuurlijk complementair,” waarbij orkestratie- en gedistribueerde rekenkrachtsterktes worden gecombineerd om next-generation AI-systemen te laten werken. Uber’s Director of Engineering, Zhitao Li, voegde eraan toe dat Ray al “een core-onderdeel” is van hun AI-platform, waarmee grootschalige training en gegevensverwerking worden aangedreven. En Meta’s Joe Spisak, een PyTorch Foundation-bestuurslid, noemde Ray’s toevoeging een “significant mijlpaal voor open source AI,” waarbij werd benadrukt hoe het een geünificeerde, community-gedreven compute-stack creëert.
Naar de Toekomst Kijken
Anyscale’s co-founder Robert Nishihara samenvatte de mijlpaal bondig:
“Ons doel is om gedistribueerde computing zo eenvoudig te maken als het schrijven van Python-code. Door deel te nemen aan de PyTorch Foundation, zorgt Ray ervoor dat het blijft een open, community-gedreven backbone voor ontwikkelaars.”
Ontwikkelaars en contribuanten kunnen zich engageren met het project via de Ray GitHub-repository of door deel te nemen aan Ray Summit 2025 in San Francisco deze november, waar de gemeenschap verder zal onderzoeken wat deze nieuwe open source-foundation betekent voor de toekomst van AI-schaalbaarheid en toegankelijkheid.
In wezen voltooit de toevoeging van Ray de ontbrekende laag in de open source AI-ecosysteem – waardoor modellering, inferentie en gedistribueerde uitvoering onder één foundation worden gebracht. Het is een cruciale stap naar een toekomst waarin AI-infrastructuur niet alleen krachtiger is, maar ook opener, efficiënter en ontwikkelaar-vriendelijker.












