人工知能
PyTorch Foundation Integrates Ray, a Distributed Computing Framework, to Build a Unified AI Infrastructure Stack

オープンソースAIエコシステムは今日、PyTorch FoundationがRay、Anyscaleによって開発された分散コンピューティングフレームワークを正式に統合したことを発表したことで、大きな飛躍を遂げました。この動きは、統一された、相互運用可能な、プロダクションレディのAIコンピューティングスタックに向けた重要なステップです。一つが、モデル開発(PyTorch)、分散型推論(vLLM)、大規模実行(Ray)の基礎となる層を結び付けるものです。
オープンソースAIの統一された基盤
Linux Foundationの下でホストされるPyTorch Foundationは、最も重要なオープンソースAIテクノロジーの中心的なハブとして機能します。その使命は、AI開発のすべての段階にわたる断片化を減らし、コラボレーションを促進することです。PyTorch、vLLMとともにRayを統合することで、財団は業界が長年にわたって必要としていたものを提供しています。つまり、AIを大規模に構築、トレーニング、デプロイするための包括的なエンドツーエンドのスタックです。
Rayの統合はまた、数年の学術的および産業的進化の集大成を表しています。UC BerkeleyのRISELabで生まれたRayは、AIおよび機械学習ワークロードの分散コンピューティングを簡素化するように設計されました。開発者は、コードの書き直しや複雑なシステムの管理を行うことなく、単一のラップトップから数千台のマシンまでジョブをシームレスにスケーリングできます。現在、Rayは39,000以上のGitHubスターと2億1400万回以上のダウンロードがあり、世界で最も広く採用されている分散コンピューティングフレームワークの1つとなっています。
RayがPyTorchとvLLMをどのように補完するか
Rayは、トレーニングおよび推論フレームワーク(PyTorch、DeepSpeed、vLLMなど)とコンテナオーケストレーションレイヤー(KubernetesまたはSlurmなど)の間に位置します。この位置により、Rayは分散ワークロードを効率的に調整し、モデルトレーニングとプロダクションスケールのデプロイの間のギャップを埋めることができます。
Rayの主な機能は次のとおりです:
- マルチモーダルデータ処理: テキスト、画像、オーディオ、ビデオなどの大量で多様なデータセットを並列で処理し、スループットと効率を最大化します。
- 事前トレーニングと事後調整: PyTorchなどのフレームワークを数千のGPUにわたってスケーリングし、事前トレーニングとファインチューニングの両タスクに使用します。
- 分散型推論: モデルをプロダクションで展開し、高スループットと低遅延を実現し、異種クラスター全体でワークロードのバーストを動的に管理します。
これらの機能を組み合わせることで、Rayはモデル作成、最適化、提供を結び付ける「接着剤」となり、現代のAIインフラストラクチャの《分散コンピューティングエンジン》レイヤーを形成します。
開発者と企業にとっての意味
今日のAI駆動型経済では、組織はスケーリング、ベンダーロックイン、コンピューティングの非効率性に関する課題に直面しています。プロプライエタリシステムは souvent ワークフローを断片化し、イノベーションを遅らせます。RayがPyTorch Foundationに参加することで、開発者は、多くの痛み点を排除する、完全にオープンソースで相互運用可能なコンピューティングスタックを獲得します。
Linux FoundationのAI担当GMであるMatt Whiteは、このコラボレーションは《次世代AIシステムを構築するために必要な重要なコンポーネントを統合する》と説明しました。この統合により、チームは、大規模言語モデルからマルチモーダルアプリケーションまで、先進的なAIシステムを、閉じられたプロプライエタリインフラストラクチャに依存することなく開発できます。代わりに、開発者は、スケーラブルでモジュラーでコミュニティ主導のエコシステムを使用してAIモデルをトレーニングおよびデプロイできます。
オープンソースAIのより広範な影響
PyTorch、vLLM、Rayのコラボレーションは、オープンコンピューティングの相互運用性の新しい時代を示唆しています。Linux Foundationが中立的なガバナンスを提供することで、AI業界は、クラウドオーケストレーションを標準化したKubernetesと同様の、共有インフラストラクチャの開発に対する持続可能なモデルを獲得します。
業界のリーダーはこの感覚を共有しています。Cloud Native Computing FoundationのChris Aniszczykは、RayとKubernetesは《自然に補完的な》ものであり、オーケストレーションと分散コンピューティングの強みを組み合わせて、次世代のAIシステムを動かすと述べました。UberのエンジニアリングディレクターであるZhitao Liは、Rayはすでに《コアコンポーネント》であり、大規模なトレーニングとデータ処理を推進していると述べました。MetaのJoe Spisak、PyTorch Foundationの理事は、Rayの追加は《オープンソースAIの重要な里程標》であり、統一されたコミュニティ主導のコンピューティングスタックを作成することを強調しました。
今後の展望
Anyscaleの共同創設者Robert Nishiharaは、この里程標を簡潔にまとめました:
「私たちの目標は、分散コンピューティングをPythonコードを書くように簡単にすることです。PyTorch Foundationに参加することで、Rayは開発者にとってオープンでコミュニティ主導のバックボーンとして継続的に機能することが保証されます。」
開発者とコントリビューターは、Ray GitHubリポジトリまたはサンフランシスコで今年11月に開催されるRay Summit 2025に参加することで、プロジェクトに参加できます。そこでは、コミュニティがこの新しいオープンソース財団がAIのスケーラビリティとアクセシビリティの未来に与える意味についてさらに探究します。
本質的に、Rayの追加は、オープンソースAIエコシステムの欠けている層を完成させます。《モデリング、推論、分散実行》を1つの財団の下にまとめ、AIインフラストラクチャがより強力でオープンで効率的で開発者に優しいものになる将来への大きなステップとなります。












