人工知能
Omri Geller, CEO & Co-Founder of Run:AI – Interview Series

Omri Gellerは、Run:AIのCEOおよび共同創設者です。
Run:AIは、GPUコンピューティングリソースをプール化して仮想化および加速化し、リソースの優先順位付けと割り当ての可視性と制御を確保します。これにより、AIプロジェクトがビジネス目標にマッピングされ、データサイエンスチームの生産性が大幅に改善され、リソース制限なく同時にモデルを構築およびトレーニングできるようになります。
あなたが最初にAIに惹かれたのは何でしたか?
私はテルアビブ大学で電気電子工学の学士課程を始めたとき、AIについての面白いことを発見し、コンピューティングの可能性を次のステップに進めるのに役立つことを知りました。そこから、私はAIの分野に投資したいと思いました。AIの研究であっても、AIを世界に新しい方法で適用する会社を開くことであっても。
コンピューターハードウェアに興味を持ったのはいつからですか?
私は6歳または7歳のときにIntel 486プロセッサのコンピューターを初めて受け取り、すぐにすべてがどのように機能するのかを知りたくなりました。スポーツ以外に、コンピューターは私の大きな趣味の1つになりました。以来、私はコンピューターを構築し、使用し、子供の頃からの情熱によりその分野を学びました。
Run:AIを立ち上げるきっかけとなったのは何でしたか?
私は非常に早い段階で、AIの分野に投資したいと思っていました。過去数年間で、AIは驚くべき成長を遂げてきました。その成長の多くは、コンピューターサイエンティストである私のような人々と、より多くのアプリケーションをサポートできるハードウェアによってもたらされました。私が会社を設立するのは時間の問題であることが明らかでした。共同創設者のロネン・ダールと共に、革新を続け、AIをより多くの企業に導入する手助けをするために。
Run:AIは、機械学習のスペシャリストが高価なGPUリソースの割り当てを新たな形で制御できるようにします。どうやってこれが機能するのか説明できますか?
私たちが理解する必要があるのは、機械学習エンジニアである研究者やデータサイエンティストが、コンピューティングパワーを柔軟に消費する必要があるということです。今日の最新の計算は非常に計算集約的であり、データサイエンスでは新しいワークフローが使用されています。これらのワークフローは、データサイエンスが実験と実験の実行に基づいているという事実に基づいています。
新しいソリューションを開発してより効率的な実験を実行するには、時間の経過にわたるワークフローの傾向を調べる必要があります。たとえば、データサイエンティストは1日に8つのGPUを使用するかもしれませんが、翌日は0個、または長期間にわたって1つのGPUを使用するかもしれませんが、100個の実験を並行して実行したい場合は100個のGPUを使用する必要があります。1人のユーザーの処理能力のワークフローを最適化した後、複数のユーザーにスケールアップできます。
伝統的なコンピューティングでは、特定の数のGPUが各ユーザーに割り当てられ、使用中かどうかは考慮されません。この方法では、多くの場合、高価なGPUが使用されずにアイドル状態になり、GPUのROIが低くなります。私たちは会社の財務優先事項を理解し、ユーザーのニーズに応じてリソースを動的に割り当てるソリューションを提供します。柔軟なシステムを提供することで、必要に応じて特定のユーザーに追加のパワーを割り当て、使用されていないGPUを利用して、会社のコンピューティングリソースのROIを最大化し、AIソリューションのイノベーションと市場投入を加速できます。
Run:AIの機能の1つは、静的なGPU割り当てによって生じる盲点を減らすことです。これはどのように実現されますか?
リソースのクラスターに関する完全な可視性を提供するツールがあります。このツールを使用して、クラスター内で盲点があるかどうかを観察して理解し、アイドル状態のGPUを使用して、割り当てが必要なユーザーに割り当てることができます。クラスターの可視性と制御を提供する同じツールは、盲点を軽減することも保証します。
最近のスピーチでは、ビルドとトレーニングのワークフローに関するいくつかの違いについて触れました。Run:AIがGPUキュー管理メカニズムを使用してどのようにリソース管理を割り当てるか説明できますか?
AIモデルは2つの段階で構築されます。最初の段階はビルド段階で、データサイエンティストが実際のモデルを構築するコードを書き込みます。2番目の段階はトレーニング段階で、完成したモデルが特定のタスクを最適化する方法を学習し、「トレーニング」されます。車を組み立てたのと同じように、誰かが車を運転する方法を学ぶことと似ています。
モデル自体を構築するには、多くのコンピューティングパワーは必要ありません。ただし、最終的には、内部テストを開始するためにより強力な処理能力が必要になる場合があります。たとえば、エンジニアが車にエンジンを取り付ける前にテストしたい場合と同じです。これらの各段階での異なるニーズにより、Run:AIは、ビルドまたはトレーニングの段階に関係なく、GPUの割り当てを可能にします。ただし、前述のように、トレーニングモデルには通常、ビルドよりも高いGPU使用量が必要です。
Run:AIをシステムに統合したいAI開発者は、生のコンピューティング時間/リソースをどれだけ節約できる可能性がありますか?
Run:AIのソリューションは、リソースのデジタル化を約2〜3倍改善することで、全体的な生産性を2〜3倍向上させることができます。
Run:AIを訪問して、詳細をご覧ください。












