Connect with us

NVIDIA、Rubinプラットフォームを発表:次世代AIチップ

人工知能

NVIDIA、Rubinプラットフォームを発表:次世代AIチップ

mm

コンピュテックス会議で、NVIDIAのCEOであるJensen Huangは、AIコンピューティングの未来に関する会社の計画をさらに発表しました。スポットライトは、2026年に発売される予定のRubin AIチッププラットフォームと、2025年に発売される予定のBlackwell Ultraチップに注がれました。

Rubinプラットフォーム

2024年後半に出荷される予定のBlackwellアーキテクチャの後継として、Rubinプラットフォームは、NVIDIAのAIコンピューティング能力における大きな飛躍を表しています。Huangは、データ処理の需要の増加に応じて加速コンピューティングの必要性を強調し、「計算インフレを見ている」と述べました。NVIDIAの技術は、98%のコスト削減と97%のエネルギー消費削減を約束し、会社をAIチップ市場の先頭に押し出しています。
Rubinプラットフォームに関する具体的な詳細は少なかったですが、Huangは、新しいGPUと、Veraという名前の中央プロセッサを特徴とすることを明らかにしました。プラットフォームには、HBM4(高帯域幅メモリの次世代)も含まれており、これはAIアクセラレータの生産における重要なボトルネックとなっているため、需要が高まっています。主要サプライヤーのSK Hynix Inc.は、2025年までにHBM4をほとんど売り切れており、 この重要なコンポーネントに対する激しい競争を強調しています。
https://www.youtube.com/watch?v=pKXDVsWZmUU

NVIDIAとAMDが先頭を切る

NVIDIAのAIチップの年次リリーススケジュールへの移行は、AIチップ市場における激しい競争を強調しています。NVIDIAがリーダーシップを維持するために努力する中、他の業界の大手企業も重要な進歩を遂げています。コンピュテックス2024の開幕キーノートで、AMD会長兼CEOのLisa Suは、AMD Instinctアクセラレータファミリーの成長する勢いを紹介し、リーダーシップAIパフォーマンスとメモリ機能の年次カデンスを紹介するマルチイヤーロードマップを発表しました。
AMDのロードマップは、2024年4月に発売される予定のAMD Instinct MI325Xアクセラレータから始まり、業界をリードするメモリ容量と帯域幅を誇ります。同社はまた、2024年下半期に発売される予定の「Turin」とコードネームが付けられた5世代AMD EPYCプロセッサを紹介しました。これには、「Zen 5」コアが使用されます。将来的には、AMDは、2026年に、AMD CDNA「Next」アーキテクチャをベースにしたAMD Instinct MI400シリーズを発売する予定で、AIトレーニングと推論のパフォーマンスと効率が向上します。

影響、潜在的な影響、課題

NVIDIAのRubinプラットフォームの導入と、同社のAIアクセラレータの年次更新への取り組みは、AI業界に広範な影響を及ぼします。この革新と開発の加速されたペースにより、より効率的でコスト効率の高いAIソリューションが可能になり、さまざまな分野の進歩が促進されます。
Rubinプラットフォームは大きな期待を寄せられていますが、解決しなければならない課題と考慮すべき点があります。HBM4メモリの需要が高く、主要サプライヤーのSK Hynix Inc.が2025年までほとんど売り切れていることによる供給制約が、Rubinプラットフォームの生産と入手可能性に影響を及ぼす可能性があります。
さらに、NVIDIAは、パフォーマンス、効率、コストのバランスをとる必要があり、Rubinプラットフォームが幅広い顧客にとってアクセスしやすく維持できるようにする必要があります。既存のシステムとの互換性とシームレスな統合も、採用を促進し、ユーザーへの混乱を最小限に抑えるために不可欠です。
Rubinプラットフォームが加速されたAIイノベーションと開発の舞台を整えるにつれ、企業や研究者は、これらの進歩を活用するために情報を入手し、準備する必要があります。NVIDIAのRubinプラットフォームを利用することで、さまざまな業界の組織は、効率性を高め、業界での競争優位性を獲得できます。

Alex McFarlandは、人工知能の最新の開発を探求するAIジャーナリスト兼ライターです。彼は、世界中の数多くのAIスタートアップや出版物と共同しています。