人工知能
Microsoft、Phi-3を発表: 強力なオープンAIモデルが小さなサイズで最高のパフォーマンスを実現

Microsoftは、Phi-3という新しい小規模言語モデル(SLM)ファミリーを導入しました。これらのモデルは、AIアプリケーションで高パフォーマンスとコスト効率を実現することを目的としています。言語理解、推論、コーディング、数学などのベンチマークで、これらのモデルは同等または大規模なモデルと比較して優れた結果を示しています。Phi-3のリリースにより、開発者と企業がAIを活用しながら効率とコストをバランス良くするための選択肢が拡大しました。
Phi-3モデルファミリーと利用可能性
Phi-3ラインナップの最初のモデルは、Phi-3-miniです。これは、3.8BパラメータモデルのAzure AI Studio、Hugging Face、およびOllamaで利用可能です。Phi-3-miniは、指示を事前に調整しているため、広範なファインチューニングを行わずに「箱から出て」使用できます。最大128Kトークンのコンテキストウィンドウを備え、パフォーマンスを犠牲にすることなく大規模なテキスト入力を処理できます。
ハードウェア設定全体でのパフォーマンスを最適化するために、Phi-3-miniはONNX RuntimeとNVIDIA GPUにファインチューンされています。Microsoftは近く、Phi-3-small(7Bパラメータ)とPhi-3-medium(14Bパラメータ)をリリースすることで、Phi-3ファミリーを拡大する予定です。これらの追加モデルにより、多様なニーズと予算に対応するための幅広い選択肢が提供されます。

Image: Microsoft
Phi-3のパフォーマンスと開発
Microsoftによると、Phi-3モデルは、同等または大規模なモデルと比較して、さまざまなベンチマークで著しいパフォーマンスの改善を示しています。同社によると、Phi-3-miniは、言語理解と生成タスクで自身のサイズの2倍のモデルを上回っており、Phi-3-smallとPhi-3-mediumは、GPT-3.5Tなどの大規模モデルを上回っています。
Microsoftは、Phi-3モデルの開発が、説明責任、透明性、公平性、信頼性、安全性、プライバシー、セキュリティ、および包括性を強調するResponsible AIの原則と基準に従ったものであると述べています。これらのモデルは、責任あるAIの展開慣行に従って、安全性トレーニング、評価、およびレッドチームテストを受けたと報告されています。

Image: Microsoft
Phi-3の潜在的なアプリケーションと機能
Phi-3ファミリーは、リソースが制約されたシナリオ、低遅延が不可欠、またはコスト効率が優先されるシナリオで優れたパフォーマンスを発揮するように設計されています。これらのモデルは、デバイスでの推論を可能にし、AIを動作させるアプリケーションを幅広いデバイスで効率的に実行できるようにします。Phi-3モデルの小さなサイズにより、企業はモデルを特定のユースケースに合わせて調整するためのコストを削減できます。
レスポンスタイムが重要なアプリケーションでは、Phi-3モデルは有望なソリューションを提供します。最適化されたアーキテクチャと効率的な処理により、迅速な結果生成が可能になり、ユーザーエクスペリエンスが向上し、リアルタイムのAIインタラクションの可能性が開けられます。さらに、Phi-3-miniの優れた推論と論理的能力により、データ分析やインサイト生成などの分析タスクに適しています。
