Connect with us

各企業向けのカスタムLLM – DeepSeekが示す道

ソートリーダー

各企業向けのカスタムLLM – DeepSeekが示す道

mm

昔話、テクノロジーの呼びかけは「携帯電話をみんなに」──そして実際、モバイルコミュニケーションはビジネス(と世界)を革命しました。今日、同等の呼びかけは、みんなにAIアプリケーションへのアクセスを提供することです。しかし、AIの真の力は、ビジネスや組織の特定のニーズに合わせてそれを利用することにある。中国のスタートアップDeepSeekが切り開いた道は、AIが実際にみんな、特に予算が限られている人々によって利用できるようにする方法を示しています。実際、低コストAIの出現は、AIソリューションが多くの小規模ビジネスや組織にとって、コスト要件のため目に見えにくいという、根深いパターンを変えることになります。

LLMは──または、かつては──高価な取り組みでした。大量のデータへのアクセス、データを処理するための強力なコンピューターの大量、そしてモデルをトレーニングするための時間とリソースが必要でした。しかし、ルールは変わりつつあります。DeepSeekは、手持ちの予算で、独自のLLMと、質問に対するChatGPTタイプのアプリケーションを開発しました。これは、アメリカやヨーロッパの企業が構築した同様のシステムよりも、はるかに小さな投資でした。DeepSeekのアプローチは、数十億ドルを費やすことができない小規模な組織にとって、LLM開発の窓を開けます。実際、ほとんどの小規模組織が、独自の目的を果たすために独自のLLMを開発できる日は遠くないかもしれません。通常、ChatGPTのような一般的なLLMよりも、より効果的なソリューションを提供します。

DeepSeekの真のコストについてはまだ議論が続いていますが、それがDeepSeekや同様のモデルを区別するのは、単にコストだけではありません。DeepSeekは、米国の輸出規制の対象となる中国企業として、一般的にLLM開発に使用される先進的なNvidiaチップへのアクセスができませんでした。したがって、データを処理する速度や効率が低いNvidia H-800チップを使用することを強いられました。

その力の欠如を補うために、DeepSeekはLLM開発に異なる、より焦点を当てたアプローチを取りました。モデルに大量のデータを投入し、コンピューティングの強さに頼るのではなく、トレーニングを絞り込み、少量の高品質の「コールドスタート」データを活用し、反復強化学習(IRL)を適用しました。アルゴリズムはデータをさまざまなシナリオに適用し、それから学習します。この焦点を当てたアプローチにより、モデルはより速く、間違いを少なく、計算リソースの浪費を減らして学習できます。

親が赤ちゃんの特定の動きを案内し、初めてのうつ伏せを成功させるのと同様に──赤ちゃんを独自に発見させるのではなく、または、うつ伏せを助ける可能性のある幅広い動きを教えるのではなく──これらのより焦点を当てたAIモデルをトレーニングするデータサイエンティストは、特定のタスクや成果物に最も必要なものにズームインします。こうしたモデルは、ChatGPTのような大規模なLLMほど幅広い信頼性のある応用を持たないかもしれませんが、特定の応用に対しては、精度と効率性を持って実行できます。DeepSeekの批判者ですら、その開発のストリームラインアプローチが効率性を大幅に高めたことを認めています。結果として、はるかに少ないリソースでより多くのことを実現できるようになりました。

このアプローチは、AIに最適な入力を与えて、最も賢く、最も効率的にマイルストーンに到達できるようにすることについてです。これは、特定のニーズやタスクに対してLLMを開発したい組織にとって、ますます価値があるアプローチです。まず、最初のステップは、正しいデータから始めることです。たとえば、AIを使用してセールスとマーケティングチームを支援したい会社は、セールスコミュニケーション、戦略、指標に焦点を当てた慎重に選択されたデータセットでモデルをトレーニングする必要があります。これにより、モデルは無関係な情報に時間や計算リソースを浪費することがなくなります。さらに、トレーニングは段階的に構造化する必要があり、モデルが各タスクまたは概念をマスターする前に次のステージに進むことを保証する必要があります。

これも、赤ちゃんを育てることと同じで、私自身が数ヶ月前に母親になったことを学んできたことです。両方のシナリオで、案内されたステップバイステップのアプローチにより、リソースの浪費が避けられ、摩擦が減ります。最後に、赤ちゃん人間やAIモデルに対するこのアプローチは、反復的な改善につながります。赤ちゃんが成長するにつれて、またはモデルがより多くのことを学ぶにつれて、その能力は向上します。これにより、モデルはより洗練され、改善されて、現実世界の状況に対処することができます。

このアプローチにより、コストが抑えられ、AIプロジェクトがリソースの浪費になるのを防ぎ、小規模チームや組織にとってもアクセスしやすくなります。また、AIモデルのパフォーマンスがより速く改善され、モデルが余分なデータで過負荷にならないため、新しい情報やビジネスの変化するニーズに適応することもできます──競争的な市場では重要です。

DeepSeekと低コストで効率的なAIの世界の到来──初期的にはAI界と株式市場にパニックを広めた──は、全体としてAIセクターにとってプラスの展開です。特定の焦点を当てたアプリケーションに対するAIのより大きな効率性と低コストは、最終的にAIの一般的な使用の増加につながり、開発者からチップメーカーまで、エンドユーザーまで、すべての成長を促進します。実際、DeepSeekはジェボンズのパラドックスを示しています。つまり、より効率的なリソースの使用は、使用量の減少ではなく、増加につながる可能性があります。このトレンドが続くにつれて、特定のニーズを満たすためにAIを使用することに焦点を当てた小規模ビジネスも、成長と成功のためにより良い立場に立つことになります。

スタフ・レヴィ=ノイマークは、AltaのCEO兼共同創設者であり、製品管理と収益成長の専門家です。以前は、Monday.comの最初の従業員の1人で、「BigBrain」と呼ばれる内部BIツールの開発に携わり、日々の会社運営に使用されました。スタフは、ヘブライ大学エルサレム校でコンピューターサイエンスと統計学の学士号を取得しています。