Connect with us

Liquid AIがLiquid Foundation Modelsを発売:ジェネレーティブAIのゲームチェンジャー

人工知能

Liquid AIがLiquid Foundation Modelsを発売:ジェネレーティブAIのゲームチェンジャー

mm

破壊的な発表において、Liquid AI、MITのスピンオフ会社は、最初のLiquid Foundation Models(LFMs)シリーズを導入しました。これらのモデルは、最初の原理から設計されており、ジェネレーティブAIスペースで新しいベンチマークを設定し、さまざまなスケールで無比のパフォーマンスを提供します。LFMsは、革新的なアーキテクチャと高度な機能を備え、業界をリードするAIモデル、包括してChatGPTに挑戦する準備ができています。

Liquid AIは、Ramin HasaniMathias LechnerAlexander Amini、およびDaniela Rusを含むMITの研究者チームによって設立されました。ボストン、マサチューセッツ州に本社を置くこの会社の使命は、すべての規模の企業向けに、有能で効率的な汎用AIシステムを作成することです。チームはもともと、液体ニューラルネットワーク、つまり脳のダイナミクスにインスパイアされたAIモデルのクラスを先駆的に開発し、現在はエッジデバイスから企業向けの展開まで、すべてのスケールでAIシステムの機能を拡大することを目指しています。

液体基礎モデル(LFMs)とは何ですか?

液体基礎モデルは、メモリ使用量と計算能力の両方で非常に効率的な新しい世代のAIシステムを表します。ダイナミカルシステム、信号処理、数値線形代数に基づいて構築されたこれらのモデルは、テキスト、ビデオ、オーディオ、信号などのさまざまな種類のシーケンシャルデータを驚くほどの精度で処理するように設計されています。

Liquid AIは、この発売の一環として3つの主要な言語モデルを開発しました:

  • LFM-1B: リソース制約のある環境に最適化された13億パラメータの密なモデル。
  • LFM-3B: 31億パラメータのモデルで、モバイルアプリケーションなどのエッジ展開シナリオに適しています。
  • LFM-40B: 40.3億パラメータのMixture of Experts(MoE)モデルで、複雑なタスクを例外的なパフォーマンスで処理するように設計されています。

これらのモデルは、すでに主要なAIベンチマークで最先端の結果を示しており、既存のジェネレーティブAIモデルに強力な競争相手となっています。

最先端のパフォーマンス

Liquid AIのLFMsは、さまざまなベンチマークで最高のクラスのパフォーマンスを提供します。たとえば、LFM-1Bは、サイズカテゴリのトランスフォーマーベースのモデルを上回り、LFM-3Bは、MicrosoftのPhi-3.5やMetaのLlamaシリーズなどのより大きなモデルと競合します。LFM-40Bモデルは、サイズにもかかわらず、パフォーマンスとリソース効率のバランスを取ることができ、パラメータ数がさらに多いモデルと競合することができます。

LFMのパフォーマンスのハイライトには、次のものがあります:

  • LFM-1B: MMLUやARC-Cなどのベンチマークで優位性を示し、13億パラメータモデルの新しい基準を設定します。
  • LFM-3B: Phi-3.5やGoogleのGemma 2などのモデルよりも効率性に優れており、メモリフットプリントが小さく、モバイルおよびエッジAIアプリケーションに適しています。
  • LFM-40B: このモデルのMoEアーキテクチャは、より大きなモデルと同等のパフォーマンスを提供し、同時に12億のアクティブパラメータを備えています。

AI効率の新時代

現代のAIにおける重大な課題は、特にドキュメントの要約やチャットボットのやり取りなどの長いコンテキストのタスクで、メモリと計算を管理することです。LFMsは、入力データを効率的に圧縮することでこの分野で優れており、推論中のメモリ消費量が減少します。これにより、モデルは、高価なハードウェアのアップグレードを必要とせずに、より長いシーケンスを処理できます。

たとえば、LFM-3Bは、32kトークンのコンテキストの長さを提供し、同時に大量のデータを処理するタスクに最も効率的なモデルの一つとなっています。

革命的なアーキテクチャ

LFMsは、従来のトランスフォーマーモデルから逸脱したユニークなアーキテクチャフレームワークで構築されています。アーキテクチャは、入力データに基づいて計算を調整する適応型線形演算子を中心に設計されています。このアプローチにより、Liquid AIは、NVIDIA、AMD、Cerebras、Appleハードウェアを含むさまざまなハードウェアプラットフォームでパフォーマンスを大幅に最適化できます。

LFMの設計空間には、データを処理する方法を改善するための、トークン混在チャンネル混在構造の新しい組み合わせが含まれます。これにより、特に長いコンテキストのタスクとマルチモーダルアプリケーションで、優れた汎用化と推論能力が実現します。

AIのフロンティアの拡大

Liquid AIは、LFMsに大きな野心を持っています。言語モデルを超えて、会社は、ビデオ、オーディオ、時系列データなどのさまざまなデータモダリティをサポートするために基礎モデルを拡張することを目指しています。これらの進歩により、LFMsは、金融サービス、バイオテクノロジー、消費者向けエレクトロニクスなどの複数の業界で拡大することができます。

会社はまた、オープンサイエンスコミュニティに貢献することに焦点を当てています。モデル自体は現在オープンソースではないですが、Liquid AIは、関連する研究結果、方法、データセットをより広いAIコミュニティに公開する予定で、コラボレーションとイノベーションを促進します。

早期アクセスと導入

Liquid AIは、Liquid PlaygroundLambda(チャットUIとAPI)、およびPerplexity Labsを通じて、LFMへの早期アクセスを提供しています。企業は、エッジデバイスからオンプレミスソリューションまで、さまざまな展開環境でLFMの潜在性を探索できます。

Liquid AIのオープンサイエンスアプローチでは、早期導入者は経験と洞察を共有することを奨励しています。会社は、実際のアプリケーションにモデルを改良して最適化するために、フィードバックを積極的に求めています。開発者や組織は、Red Teaming Effortsに参加し、Liquid AIのAIシステムを改善するのに役立つことができます。

結論

Liquid Foundation Modelsのリリースは、AIの景観における重要な進歩を表します。効率性、適応性、パフォーマンスに焦点を当てたLFMsは、企業がAI統合に取り組む方法を変える可能性があります。より多くの組織がこれらのモデルを採用するにつれて、Liquid AIの、拡張可能で汎用的なAIシステムのビジョンは、人工知能の次の時代の基盤となる可能性があります。

あなたの組織でLFMの潜在性を探索したい場合は、Liquid AIはあなたに連絡し、AIの未来を形作る早期導入者の成長するコミュニティに参加するよう招待しています。

詳細については、Liquid AIの公式ウェブサイトを訪問し、今日からLFMを使用してみましょう。

アントワーヌは、Unite.AIの創設パートナーであり、ビジョナリーなリーダーです。彼は、AIとロボティクスの未来を形作り、推進するという、揺るぎない情熱に突き動かされています。シリアルエントレプレナーである彼は、AIは電気と同じように社会に大きな変革をもたらすと信じており、破壊的な技術やAGIの潜在能力について熱く語ることがよくあります。

As a futurist、彼は、これらのイノベーションが私たちの世界をどのように形作るかを探求することに尽力しています。さらに、彼は、Securities.ioの創設者であり、未来を再定義し、全セクターを再構築する最先端技術への投資に焦点を当てたプラットフォームです。