Connect with us

Intelligence artificielle

Fondation PyTorch intègre Ray, un cadre de calcul distribué, pour construire une pile d’infrastructure d’IA unifiée

mm

L’écosystème open source d’IA a fait un pas décisif aujourd’hui alors que la Fondation PyTorch a annoncé que Ray, le cadre de calcul distribué développé à l’origine par Anyscale, a officiellement rejoint ses rangs. Cette démarche marque une étape significative vers une pile de calcul d’IA unifiée, interopérable et prête pour la production – une pile qui relie les couches fondamentales du développement de modèles (PyTorch), de l’inférence distribuée (vLLM) et de l’exécution à grande échelle (Ray).

Une fondation unifiée pour l’IA open source

Hébergée sous la fondation Linux, la Fondation PyTorch agit comme un hub central pour certaines des technologies d’IA open source les plus importantes. Sa mission est de réduire la fragmentation et de favoriser la collaboration à toutes les phases du développement de l’IA. En intégrant Ray aux côtés de PyTorch et de vLLM, la fondation livre ce dont l’industrie a longtemps eu besoin – une pile cohérente, de bout en bout, pour la construction, la formation et le déploiement de l’IA à grande échelle.

L’inclusion de Ray représente également la culmination d’années d’évolution académique et industrielle. Né au RISELab de l’UC Berkeley, Ray a été conçu pour simplifier le calcul distribué pour les charges de travail d’IA et d’apprentissage automatique. Il permet aux développeurs de mettre à l’échelle les tâches en toute transparence, d’un simple ordinateur portable à des milliers de machines, sans réécrire de code ou gérer des systèmes complexes. À ce jour, Ray compte plus de 39 000 étoiles GitHub et plus de 214 millions de téléchargements, ce qui en fait l’un des cadres de calcul distribué les plus largement adoptés au monde.

Comment Ray complète PyTorch et vLLM

Ray se situe entre les cadres de formation et d’inférence (tels que PyTorch, DeepSpeed et vLLM) et la couche d’orchestration de conteneurs (comme Kubernetes ou Slurm). Cette position permet à Ray de coordonner les charges de travail distribuées de manière efficace tout en comblant le fossé entre la formation de modèles et le déploiement à grande échelle.

Les principales capacités de Ray incluent :

  • Traitement de données multimodales : Gère des ensembles de données massifs et diversifiés – texte, images, audio et vidéo – en parallèle, maximisant le débit et l’efficacité.
  • Pré-formation et post-ajustement : Met à l’échelle PyTorch et d’autres cadres sur des milliers de GPU pour les tâches de pré-formation et d’ajustement fin.
  • Inférence distribuée : Déploie des modèles en production avec un débit élevé et une faible latence, gérant dynamiquement les pics de charge de travail sur des grappes hétérogènes.

Ensemble, ces fonctions font de Ray la « colle » qui relie la création de modèles, l’optimisation et la mise en service, formant ainsi effectivement la couche de moteur de calcul distribué de l’infrastructure d’IA moderne.

Ce que cela signifie pour les développeurs et les entreprises

Dans l’économie d’IA d’aujourd’hui, les organisations sont confrontées à des défis immenses en matière de mise à l’échelle, de verrouillage de fournisseur et d’inefficacité de calcul. Les systèmes propriétaires fragmentent souvent les flux de travail et ralentissent l’innovation. Avec Ray rejoignant la Fondation PyTorch, les développeurs disposent d’une pile de calcul entièrement open source, interopérable, qui élimine de nombreux points de douleur.

Comme l’a expliqué Matt White, directeur général de l’IA à la Fondation Linux, cette collaboration « unit les composants critiques nécessaires pour construire les systèmes d’IA de nouvelle génération ». L’unification permet aux équipes de développer des systèmes d’IA avancés – allant des grands modèles de langage aux applications multimodales – sans s’appuyer sur une infrastructure propriétaire fermée. Au lieu de cela, les développeurs peuvent former et déployer des modèles d’IA en utilisant un écosystème qui est évolutif, modulaire et axé sur la communauté.

Les implications plus larges pour l’IA open source

La collaboration entre PyTorch, vLLM et Ray pointe vers une nouvelle ère d’interopérabilité de calcul open source. Avec la gouvernance neutre de la Fondation Linux, l’industrie de l’IA bénéficie d’un modèle durable pour le développement d’une infrastructure partagée – similaire à la façon dont Kubernetes a standardisé l’orchestration du cloud.

Les leaders de l’industrie ont échoé ce sentiment. Chris Aniszczyk de la Cloud Native Computing Foundation a noté que « Ray et Kubernetes sont naturellement complémentaires, » combinant les forces d’orchestration et de calcul distribué pour alimenter les systèmes d’IA de nouvelle génération. Le directeur de l’ingénierie d’Uber, Zhitao Li, a ajouté que Ray est déjà un « élément essentiel » de leur plate-forme d’IA, alimentant la formation et le traitement de données à grande échelle. Et Joe Spisak de Meta, membre du conseil d’administration de la Fondation PyTorch, a qualifié l’ajout de Ray de « jalon important pour l’IA open source », soulignant comment il crée une pile de calcul unifiée et axée sur la communauté.

Regard vers l’avenir

Le co-fondateur d’Anyscale, Robert Nishihara, a résumé le jalon de manière concise :

« Notre objectif est de rendre le calcul distribué aussi simple que l’écriture de code Python. Rejoindre la Fondation PyTorch assure que Ray continue d’être une colonne vertébrale open source et axée sur la communauté pour les développeurs. »

Les développeurs et les contributeurs peuvent s’engager dans le projet via le référentiel GitHub de Ray ou assister à la Ray Summit 2025 à San Francisco ce novembre, où la communauté explorera davantage ce que cette nouvelle fondation open source signifie pour l’avenir de la scalabilité et de l’accessibilité de l’IA.

En essence, l’ajout de Ray complète la couche manquante dans l’écosystème d’IA open source – rassemblant la modélisation, l’inférence et l’exécution distribuée sous une seule fondation. C’est une étape cruciale vers un avenir où l’infrastructure d’IA n’est pas seulement plus puissante, mais également plus ouverte, plus efficace et plus conviviale pour les développeurs.

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.