スタブ Nvidia の優位性に直面: 非大手テクノロジー企業向けのアジャイル ML 開発戦略 (供給とコストの課題の中で) - Unite.AI
私達と接続

ソートリーダー

Nvidia の優位性に直面: 非大手テクノロジー企業向けのアジャイル ML 開発戦略 (供給とコストの課題の中で)

mm

公開済み

 on

実際の大手企業の間でゲーム内でビジネスを構築することは、決して簡単な作業ではありません。 2023 年、AI 分野の競争は、驚くべき真のブレークスルーによって前例のない高みに達しました。 OpenAIのリリース GPT-4、の統合 ChatGPT と Bing、Googleがローンチ 吟遊詩人、そして物議を醸しているメタの「オープンソース」  ラマ2 リリース。ビッグネームの長いリストのように聞こえますよね?刺激的に聞こえるかもしれませんが、イノベーションの大部分は資金が流れる場所にあり、小規模なテクノロジー企業が乗り越えなければならない競争は日に日に激化しています。

進化し続けるテクノロジー業界の状況において、Nvidia は AI インフラストラクチャの主要プレーヤーとしての地位を確固たるものにし続けています。最中 8月決算報告電話会議, NVIDIA のジェンセン フアン社長は、NVIDIA プロセッサに対する需要の急増を強調しました。この主張は以下の確認によって裏付けられています Nvidia の第 3 四半期 r プレゼンテーション収益データこれは、11 月初旬の時点で顕著な前年比パフォーマンス記録を明らかにしています。一方、Gartner の予測では、今後 4 年間でチップ支出が大幅に増加することが示されています。現時点では、Nvidia のソフトウェア スタックとプロセッサは他の追随を許さず、信頼できる競合他社がいつ現れるか業界には不確実性が残っています。

最近のレポート ブルームバーグフィナンシャル·タイムズ OpenAI の CEO であるサム・アルトマン氏が、AI セクターの Nvidia チップへの依存度を減らすことを目的として、チップ生産を開始するための中東の投資家と交渉していることに光を当てます。時価総額約1.5兆XNUMX億ドルを誇るNvidiaに挑戦することで、アルトマン氏は次のような代償を払うことになるだろう。 5兆ドルと7兆ドル そして数年かかります。

それにもかかわらず、ビジネスにおける ML モデルの費用対効果に取り組むことは、企業が今やらなければならないことです。ビッグテクノロジーの領域を超えたビジネスにとって、コスト効率の高い ML モデルの開発は単なるビジネス プロセスではなく、極めて重要な生存戦略です。この記事では、あらゆる規模の企業が大規模な研究開発投資を行わずにモデルを開発し、ベンダー ロックインを回避する柔軟性を維持できるようにする 4 つの実用的な戦略について説明します。

Nvidia が AI 市場を支配する理由

簡単に言うと、Nvidia は、高性能 GPU と独自のモデル トレーニング ソフトウェア スタック、広く評価されている CUDA ツールキットの間の相乗効果を達成することで、理想的なモデル トレーニング ワークフローを作成しました。

CUDA (2007 年に導入) は、Nvidia GPU プロセッサを最適に活用するための包括的な並列コンピューティング ツールキットおよび API です。これほど人気が​​ある主な理由は、深層学習に不可欠な複雑な数学的計算を高速化する比類のない機能です。さらに、ディープ ニューラル ネットワーク用の cuDNN のような豊富なエコシステムを提供し、パフォーマンスと使いやすさを向上させます。主要な深層学習フレームワークとシームレスに統合されており、迅速なモデル開発と反復が可能になるため、開発者にとって不可欠です。

このような堅牢なソフトウェア スタックと高効率ハードウェアの組み合わせが、市場を獲得する鍵であることが証明されています。 Nvidia の優位性は一時的な現象ではないかと主張する人もいますが、現在の状況ではそのような予測を立てるのは困難です。

Nvidia の優位性がもたらす大きな代償

Nvidia は機械学習開発分野で優位に立っているため、多くの懸念を引き起こしています。 倫理的な これは、新興企業はもちろん、小規模企業にとって市場参入が飛躍的に困難になっている理由の 1 つである、研究開発予算の格差の拡大に関しても同様です。これに、リスクの高まりによる投資家の関心の低下と、多額の研究開発費を獲得するという課題が加わります (Nvidiaのもののように)投資は完全に不可能になり、非常に非常に不平等な競争条件が生まれます。

しかし、NVIDIA のハードウェアへの依存度が高いことで、サプライ チェーンの一貫性に対する圧力がさらに高まり、混乱やベンダー ロックインのリスクが生じ、市場の柔軟性が低下し、市場参入障壁が高まります。

ユーザーを窮地に陥れないよう、現金をプールしている企業もある。企業がGPUのニーズを削減しようとする中、「最適化」や「モデルサイズの小型化」などのエンジニアリング用語がどこでも流行しており、投資家たちは今年、企業がGPUでやりくりするのに役立つソフトウェアを提供する新興企業に数億ドルを賭けている。持ってるよ。」

Nvidia チップ不足により AI スタートアップ企業はコンピューティング能力を争う Paresh Dave著

今こそ戦略的アプローチを採用する時期です。これこそが、ML 開発における Nvidia の広範な影響力の中で企業が成長するチャンスを与える可能性があるからです。

非大手ハイテク企業が Nvidia の優位性に適応できる戦略:

1. AMD の RocM の探索を開始します 

AMD は、NVIDIA との AI 開発の差を積極的に縮めてきました。これは、Rocm に対する一貫したサポートによって達成されました。 PyTorch の主なライブラリ 過去 1 年間にわたって。この継続的な取り組みにより、互換性とパフォーマンスが向上しました。これは、 MI300チップセット, AMDの最新リリース。 MI300 は、大規模言語モデル (LLM) 推論タスクで堅牢なパフォーマンスを実証し、特に LLama-70b のようなモデルで優れています。この成功は、AMD が達成した処理能力と効率の大幅な進歩を裏付けています。

2. 他のハードウェアの代替品を探す

AMDの躍進に加えて、 Google は Tensor Processing Unit (TPU) を導入しました、機械学習ワークロードを高速化するために明示的に設計された特殊なハードウェアであり、大規模な AI モデルをトレーニングするための堅牢な代替手段を提供します。

これらの業界の巨人以外にも、Graphcore や Cerebras などの小規模ながら影響力のある企業が AI ハードウェア分野に顕著な貢献をしています。 Graphcore の Intelligence Processing Unit (IPU) は、AI 計算の効率化に向けて調整されており、次のような高性能タスクでの可能性が注目を集めています。 ツイッターの実験。一方、セレブラスは、 先進的なチップで限界を押し上げる、AI アプリケーションのスケーラビリティと生の計算能力を強調します。

これらの企業の共同の取り組みは、より多様な AI ハードウェア エコシステムへの移行を意味します。この多様化により、NVIDIA への依存を軽減する実行可能な戦略が提示され、開発者や研究者に AI 開発のためのより幅広いプラットフォームが提供されます。

3. パフォーマンスの最適化への投資を開始する

Nvidia の優位性による影響を軽減するには、ハードウェアの代替案の検討に加えて、ソフトウェアの最適化が重要な要素であることがわかります。効率的なアルゴリズムを利用し、不必要な計算を削減し、並列処理技術を実装することにより、非大手ハイテク企業は既存のハードウェア上で ML モデルのパフォーマンスを最大化することができ、高価なハードウェアのアップグレードだけに頼ることなくギャップを埋めるための実用的なアプローチを提供できます。

このアプローチの実例は、Deci Ai の AutoNAC テクノロジーにあります。このイノベーションは、広く認識されているように、モデル推論を 3 ~ 10 倍という驚異的な速度で加速する能力を実証しました。 MLPerf ベンチマーク。このような進歩を示すことで、ソフトウェアの最適化が ML 開発の効率を大幅に向上させ、この分野における Nvidia の優位性の影響を軽減するための実行可能な代替手段となることが明らかになります。

4. 他の組織と協力して分散クラスターを作成し始める

この共同アプローチには、研究結果の共有、代替ハードウェア オプションへの共同投資、オープンソース プロジェクトを通じた新しい ML テクノロジーの開発促進などが含まれます。推論を分散化し、分散コンピューティング リソースを利用することで、大手テクノロジー企業以外の企業も競争の場を平等にし、ML 開発業界でより競争力のある環境を作り出すことができます。

現在、コンピューティング リソースを共有する戦略がテクノロジー業界全体で勢いを増しています。 Google Kubernetes Engine (GKE) は、クラスターのマルチテナントをサポートすることでこれを例示し、リソースの効率的な利用とサードパーティ サービスとの統合を可能にします。この傾向は、AI モデルを実行するための分散ネットワークを提供する Petals などのコミュニティ主導の取り組みによってさらに証明されており、多額の投資をせずに高性能コンピューティングを利用できるようになります。さらに、Togetter.ai のようなプラットフォームは、幅広いオープンソース モデルへのサーバーレス アクセスを提供し、開発を合理化し、コラボレーションを促進します。このようなプラットフォームを検討すると、組織の規模に関係なく、計算リソースと共同開発の機会にアクセスできるようになり、開発プロセスの最適化とコストの削減に役立ちます。

まとめ 

地球規模で見ると、前述の戦略の必要性が明らかになってきています。 1 つの企業が市場を支配すると、発展が阻害され、合理的な価格設定の確立が妨げられます。

非大手テクノロジー企業は、AMDのRocMのような代替案を模索し、効率的なアルゴリズムと並列処理によるパフォーマンスの最適化に投資し、分散クラスターを作成するために他の組織との協力を促進することで、Nvidiaの優位性に対抗することができる。これにより、AI ハードウェアおよび開発業界における多様性と競争環境が促進され、小規模なプレーヤーが AI 開発の将来について発言権を持つことが可能になります。

これらの戦略は、NVIDIA の価格と供給への依存を減らし、それによって投資魅力を高め、ハードウェア競争による事業開発の減速リスクを最小限に抑え、業界全体の有機的成長を促進することを目的としています。

Sergey は、Meta や VK.com などの業界リーダーで AI ソリューション開発とチーム管理に 8 年以上の経験を持ち、イノベーションの確かな実績をもたらしています。彼のこの分野への取り組みは、ロモノーソフ・モスクワ国立大学やバウマン・モスクワ国立工科大学など、世界のトップ機関で6年以上講義を行ってきた学術分野への貢献によっても証明されています。 ML 戦略、ビッグ データ、クラウド運用にわたる専門知識を持つ Sergey の貢献は、専門分野と教育的取り組みの両方での多大な実績と評価に基づいています。