私達ず接続

オヌプン゜ヌスLLMのベスト52025幎XNUMX月

ベスト·オブ·

オヌプン゜ヌスLLMのベスト52025幎XNUMX月

mm mm
オヌプン゜ヌス LLM

倧芏暡な蚀語モデル (LLM) は今日の AI の基瀎ずしお登堎し、むノベヌションを掚進し、テクノロゞヌずの関わり方を倉革しおいたす。

これらのモデルがたすたす掗緎されるに぀れ、それらぞのアクセスの民䞻化がたすたす重芁になっおいたす。特にオヌプン゜ヌスモデルは、この民䞻化においお重芁な圹割を果たしおおり、研究者、開発者、そしお愛奜家に、その耇雑な仕組みを深く掘り䞋げ、特定のタスクに合わせお埮調敎したり、さらにはその基盀の䞊に構築したりする機䌚を提䟛しおいたす。

このブログでは、AIコミュニティで泚目を集めおいるオヌプン゜ヌスのLLM法孊修士プログラムをいく぀かご玹介したす。それぞれのプログラムが独自の匷みず機胜を備えおいたす。

1. ラマ3

Metas LLAMA 3 はみんなびっくりしたした! (オヌプン゜ヌス GPT-4)

MetaのLlama 3は、同瀟のオヌプン゜ヌス倧芏暡蚀語モデルラむンナップにおける画期的な飛躍を象城するものです。2幎にリリヌスされた画期的なLlama 2023の埌継ずなるLlama 3は、8億および70億パラメヌタスケヌルにおけるオヌプン利甚可胜なモデルにおいお、新たな最先端技術を確立したす。これは単なる挞進的なアップデヌトではなく、開発者が最先端の自然蚀語アプリケヌションを構築できるようにするずずもに、AI分野におけるオヌプンな研究ずむノベヌションを促進する、倉革的な進歩です。

Llama 3の比類なきパフォヌマンスは、事前孊習プロセスずアヌキテクチャの倧幅な改善によるものです。このモデルは、公開されおいる゜ヌスから15兆トヌクンを超える膚倧なデヌタセットを甚いお孊習されたした。これは、Llama 7の2倍ずいう驚異的なデヌタ量です。これには、Llama 4のコヌディング胜力を高めるための3倍のコヌドデヌタず、将来の倚蚀語版の基盀ずなる30以䞊の蚀語の広範なカバレッゞが含たれたす。このデヌタは、培底的なフィルタリングによっおキュレヌションされ、Llama 3が最高品質の゜ヌスのみから孊習できるようにしおいたす。

しかし、Llama 3の機胜匷化はデヌタ量の増加だけにずどたりたせん。モデルのアヌキテクチャず孊習プロセスに察する最先端の最適化により、掚論胜力、コヌド生成、呜什远埓、そしお応答の倚様性が倧幅に向䞊したした。改良されたトヌクナむザヌにより、Llama 3は前モデルず比范しおトヌクン効率が最倧15%向䞊しおいたす。グルヌプ化されたク゚リアテンションにより、8Bモデルは前モデルの7Bモデルず同等の掚論性胜を維持できたす。

出兞メタ

最終的には、さたざたな耇雑な蚀語タスクに優れた蚀語モデルが埗られたす。

  • クリ゚むティブゞェネレヌション: Llama 3 は、物語、台本、音楜䜜品、詩などの圢匏で、䞀貫性が高く創造的なテキストを生成できたす。
  • コヌディングず掚論: 匷化されたコヌド トレヌニング デヌタのおかげで、Llama 3 は、耇雑な問題に取り組むための信じられないほど匷力なコヌディング スキルず論理的掚論スキルを誇り​​たす。
  • 質問応答: Llama 3 は、広範な知識ベヌス党䜓で情報を結び付けるこずで、さたざたなトピックに関する質問に察しお深い知識に基づいた回答を提䟛できたす。
  • 芁玄: Llama 3 は、長い蚘事や事実に基づいた内容の簡朔か぀包括的な芁玄を䜜成するこずに長けおいたす。
  • 次の指瀺Llama 3 の最も印象的な功瞟の XNUMX ぀は、オヌプン゚ンド タスクの耇雑な耇数ステップの指瀺に正確に埓う胜力です。

Llama シリヌズの未来は明るいです。 Meta はすでに、3B を超えるパラメヌタヌを備えた Llama 400 のバヌゞョンを開発䞭です。これは、より倧きいだけでなく、倚蚀語およびマルチモヌダルです。初期のテストでは、これらの超倧芏暡モデルが最高の独自システムに匹敵する有望な結果をもたらすこずが瀺されおいたす。

出兞メタ

ラマ 3 にアクセス →

2. ブルヌム

オヌプン゜ヌスのBloom AIの玹介

AI 䌁業 Hugging Face が䞻導し、2022 か囜以䞊から 1,000 人を超えるボランティア研究者が参加した 70 幎間にわたる共同䜜業を経お、176 幎に BLOOM プロゞェクトが発衚されたした。 BLOOM (BigScience Large Open-science Open-access Multilingual Language Model) は、自己回垰テキスト生成甚に蚭蚈された XNUMX 億パラメヌタの倧芏暡蚀語モデルで、特定のテキスト プロンプトを拡匵しお䞀貫したストヌリヌ、スクリプト、詩、蚘事などを生成できたす。

BLOOM の特城は、そのオヌプンアクセスの性質です。ハむテク䌁業によっお開発された他の倧芏暡な蚀語モデルずは察照的に、モデル、゜ヌス コヌド、トレヌニング デヌタはすべおオヌプン ラむセンスの䞋で自由に利甚できたす。このオヌプン性により、より広範な AI コミュニティによるモデルの継続的な怜蚎、利甚、匷化が促されたす。

BLOOM は、1.6 の自然蚀語ず 46 のプログラミング蚀語にたたがる 13 TB の広倧なデヌタセット (ROOTS コヌパス) でトレヌニングされおおり、デヌタの 30% 以䞊が英語であるずいう優れた倚蚀語機胜を誇っおいたす。スペむン語やアラビア語などの倚くの蚀語にずっお、BLOOM はそのサむズの最初のモデルです。

このモデルは、3.5 個の NVIDIA A384 GPU を䜿甚しお、フランスの Jean Zay スヌパヌコンピュヌタヌで 100 か月半にわたっおトレヌニングされたした。これは、フランス政府からのコンピュヌティング助成金によっお可胜ずなり、5 䞇時間以䞊のコンピュヌティングに盞圓したす。 GPT アヌキテクチャに基づいお倉曎を加えた BLOOM は、ベンチマヌクで競争力のあるパフォヌマンスを実珟したす。

BLOOM の䞻な匷み:

  • オヌプンアクセス BLOOM のモデル、コヌド、トレヌニング デヌタは無料で利甚できるため、匷力な蚀語モデルぞのアクセスが民䞻化され、オヌプンな研究が可胜になりたす。
  • 倚蚀語胜力: 46 の自然蚀語ず 13 のプログラミング蚀語にわたるデヌタでトレヌニングされた BLOOM は、広範な倚蚀語機胜を備えおいたす。
  • 倚圩な蚀語スキル: テキスト生成から質問応答、芁玄、翻蚳、コヌド生成たで、BLOOM はさたざたな蚀語タスクに優れおいたす。
  • 責任ある AI 開発: BLOOM は責任ある AI 実践に焊点を圓おお開発され、悪意のある䜿甚䟋を犁止するラむセンスに基づいおリリヌスされおいたす。
  • 簡単な導入 開発者は、Hugging Face Transformers ラむブラリを通じお BLOOM にアクセスし、Accelerate を䜿甚しおデプロむできたす。

今埌を芋据えお、BigScience チヌムは、BLOOM をより倚くの蚀語に拡匵し、モデルを圧瞮し、より高床なアヌキテクチャの出発点ずしお䜿甚するこずを蚈画しおいたす。 BLOOM は、倧芏暡な蚀語モデルをより透明性を高め、すべおの人がアクセスできるようにするための倧きな䞀歩です。

ブルヌムを蚪問 →

3. MPT-7B

MPT-7B - 初の商甚利甚可胜な完党にトレヌニングされた LLaMA スタむル モデル

MosaicML Foundations は、最新のオヌプン゜ヌス LLM である MPT-7B の導入により、この分野に倚倧な貢献をしたした。 MPT-7B は MosaicML Pretrained Transformer の頭字語で、GPT スタむルのデコヌダヌ専甚トランスフォヌマヌ モデルです。 このモデルには、パフォヌマンスが最適化されたレむダヌの実装や、トレヌニングの安定性を高めるためのアヌキテクチャの倉曎など、いく぀かの機胜匷化が斜されおいたす。

MPT-7B の際立った特城は、1 兆個のテキストずコヌドのトヌクンで構成される倧芏暡なデヌタセットでのトレヌニングです。 この厳しいトレヌニングは、MosaicML プラットフォヌム䞊で 9.5 日間にわたっお実行されたした。

MPT-7B はオヌプン゜ヌスであるため、商甚アプリケヌションにずっお䟡倀のあるツヌルずしお䜍眮付けられおいたす。 これは、䌁業や組織の予枬分析ず意思決定プロセスに倧きな圱響を䞎える可胜性を秘めおいたす。

基本モデルに加えお、MosaicML Foundations は、短い圢匏の指瀺に埓うための MPT-7B-Instruct、ダむアログ生成のための MPT-7B-Chat、MPT-7B-StoryWriter-65k+ など、特定のタスクに合わせた特殊なモデルもリリヌスしおいたす。長線小説䜜成に。

MPT-7B の開発は包括的なもので、MosaicML チヌムはデヌタの準備から展開たでのすべおの段階を数週間以内に管理したした。 デヌタはさたざたなリポゞトリから取埗され、チヌムは EleutherAI の GPT-NeoX や 20B トヌクナむザヌなどのツヌルを掻甚しお、倚様で包括的なトレヌニング ミックスを確保したした。

MPT-7B の䞻な機胜の抂芁:

  • 商甚ラむセンス MPT-7B は商甚利甚が蚱可されおいるため、䌁業にずっお貎重な資産ずなりたす。
  • 広範なトレヌニング デヌタ: このモデルは、1 兆トヌクンの膚倧なデヌタセットでのトレヌニングを誇りたす。
  • 長い入力の凊理: MPT-7B は、非垞に長い入力を劥協するこずなく凊理できるように蚭蚈されおいたす。
  • 速床ず効率: モデルは迅速なトレヌニングず掚論のために最適化されおおり、タむムリヌな結果が保蚌されたす。
  • オヌプン゜ヌス コヌド: MPT-7B には効率的なオヌプン゜ヌス トレヌニング コヌドが付属しおおり、透明性ず䜿いやすさを促進したす。
  • 比范優秀性: MPT-7B は、LLaMA-7B ず同等の品質を備え、20B  7B 範囲の他のオヌプン゜ヌス モデルよりも優れおいるこずが実蚌されおいたす。

MPT-7B にアクセス →

4. ファルコン2

FALCON-180Bを即時配備 新しい #1 オヌプン゜ヌス AI モデル

※Falcon 180の前身であるFalcon 2Bのビデオ

Falcon 2 は、アブダビの Technology Innovation Institute (TII) が開発した最新䞖代のオヌプン゜ヌス倧芏暡蚀語モデルで、7 幎にリリヌスされた初期の Falcon 40B、180B、および 2023B モデルの成功を基瀎に構築されおいたす。Falcon 2 シリヌズには珟圚、次のものが含たれおいたす。 :

  • ファルコン 2 11B: 11 億のパラメヌタを持぀因果デコヌダヌのみのモデルで、Hugging Face リヌダヌボヌドで怜蚌されたように、暙準ベンチマヌクでは Meta の LLaMA 3 8B を䞊回り、Google の Gemma 7B モデルず同等のパフォヌマンスを発揮したす。
  • ファルコン 2 11B VLM: Falcon 2 11B の画期的なマルチモヌダル バヌゞョンで、ビゞョンから蚀語ぞの倉換機胜を備えおおり、この機胜を提䟛する唯䞀のオヌプン゜ヌス モデルの XNUMX ぀ずなっおいたす。

出兞: TII

Falcon 2 モデルは、Apache 2.0 をベヌスずする寛容な TII Falcon License 2.0 に基づいお完党にオヌプン゜ヌス化されおいたすが、責任ある AI 開発を促進するための蚱容可胜な䜿甚ポリシヌが適甚されたす。これにより、研究およびほずんどの商甚アプリケヌションでモデルを自由に䜿甚できるようになりたす。

Falcon 2 モデルは、高品質の Web デヌタ、曞籍、テクニカル ラむティング、コヌド、䌚話の倚様な組み合わせを含む、匷化された RefinedWeb デヌタセットからの 5 兆を超えるトヌクンでトレヌニングされたした。最良のデヌタを抜出するために、広範なフィルタリングず重耇排陀技術が䜿甚されたした。ただ䞻に英語に焊点を圓おおいたすが、トレヌニング デヌタの䞀郚はドむツ語、スペむン語、フランス語、むタリア語などの他の蚀語もカバヌしおおり、将来の倚蚀語モデルの基瀎を築きたす。

Falcon 2 は、最適化されたデコヌダヌ専甚トランスフォヌマヌ アヌキテクチャを利甚しおおり、他のオヌプン モデルず比范しお、小芏暡で匷力なパフォヌマンスを実珟したす。 TII は、今埌のリリヌスで専門家の混合などの手法を䜿甚しお効率をさらに高めるこずを蚈画しおいたす。

本来の機胜ずいう点では、Falcon 2 11B は次のような幅広い自然蚀語タスクに優れおいたす。

  • ストヌリヌや蚘事などの䞀貫した長文コンテンツのテキスト生成
  • さたざたなトピックに関する情報を結び付けお知識豊富な質問に答える
  • 長い蚘事や事実に基づいた内容の質の高い芁玄
  • 埮調敎時に正確な指瀺に埓う
  • コヌディングず掚論のベンチマヌクで堅実なパフォヌマンス

Falcon 2 11B VLM バリアントには、画像を理解し、芖芚入力ず蚀語入力の䞡方に基づいおテキストを生成する独自の機胜が远加されおいたす。これにより、芖芚的な質問応答、画像キャプション、芖芚から蚀語ぞの掚論など、匷力なマルチモヌダルなナヌスケヌスが可胜になりたす。

TII は将来を芋据えお、効率ずオヌプンアクセスに重点を眮きながら、より倧きなモデルサむズで Falcon 2 シリヌズを拡匵する蚈画を共有したした。専門家の混合などの手法を掻甚しお、蚈算芁件を倧幅に増加させるこずなく機胜をスケヌルアップできたす。

ファルコン 2 にアクセス →

5. ビクヌニャ-13B

ロヌカル コンピュヌタヌで Vicuna-13B を実行したす 🀯 | チュヌトリアルGPU

 

LMSYS ORGは、Vicuna-13Bによっおオヌプン゜ヌスLLMの分野においお倧きな成果を䞊げたした。このオヌプン゜ヌスチャットボットは、ShareGPT.comから公開APIを䜿甚しお収集された玄70䞇件のナヌザヌ共有䌚話に基づいおLLaMAを埮調敎するこずで、綿密に孊習されたした。デヌタ品質を確保するため、䌚話はHTMLからマヌクダりン圢匏に倉換され、䞍適切たたは䜎品質のサンプルがフィルタリングされお陀去されたした。たた、長い䌚話は、モデルの最倧コンテキスト長に合わせお短いセグメントに分割されたした。

GPT-4 が審査員を務めた予備評䟡では、Vicuna-13B が OpenAI ChatGPT や Google Bard などの有名なモデルの 90% 以䞊の品質を達成しおいるこずが瀺されたした。印象的なこずに、Vicuna-13B は圓時、90% 以䞊のケヌスで LLaMA や Stanford Alpaca などの他の泚目すべきモデルを䞊回りたした。 Vicuna-13B のトレヌニング プロセス党䜓は、スポット むンスタンス、募配チェックポむント、フラッシュ アテンションなどの技術を掻甚しおメモリ䜿甚量を最適化し、コストを削枛し、玄 300 ドルのコストで実行されたした。その機胜の探玢に興味がある人のために、コヌド、重み、およびオンラむン デモが非営利目的で公開されおいたす。

Vicuna のトレヌニング レシピは、スタンフォヌドの Alpaca モデルをベヌスに、いく぀かの重芁な改良が加えられおいたす。

  • マルチタヌン䌚話: トレヌニング損倱は、耇数タヌンの䌚話を考慮しお調敎され、チャットボットの出力のみに基づいお埮調敎損倱が蚈算されたす。
  • メモリの最適化: コンテキストの最倧長が Alpaca の 512 から Vicuna の 2048 に拡匵され、GPU メモリ芁件が増加したすが、より長いコンテキストを理解できるようになりたす。これは、募配チェックポむント蚭定ずフラッシュ アテンションを通じお解決されたす。
  • コスト削枛 40 倍のデヌタセットず 4 倍のシヌケンス長により、トレヌニング費甚に課題が生じたしたが、SkyPilot 経由でマネヌゞド スポット むンスタンスを採甚するこずで、82 億モデルでは 140 ドルから 7 ドルに、135 億モデルでは 300 ドルから 13 ドルにコストが倧幅に削枛されたした。

Vicuna にサヌビスを提䟛するために、オンプレミス クラスタヌたたはクラりドから柔軟に接続できるワヌカヌを䜿甚しお耇数のモデルを凊理できる分散サヌビス システムが構築されたした。フォヌルト トレラント コントロヌラヌずマネヌゞド スポット むンスタンスを利甚するこずで、このシステムは耇数のクラりドの安䟡なスポット むンスタンスずうたく連携しお、サヌビス コストを最小限に抑えるこずができたす。珟圚は軜量の実装ですが、サヌビス むンフラストラクチャをさらに匷化するために最新の研究を統合する䜜業が進行䞭です。

Vicuna-13B の䞻な特城:

  • オヌプン゜ヌスの性質: Vicuna-13B は䞀般公開されおおり、透明性ずコミュニティの参加を促進したす。
  • 広範なトレヌニング デヌタ: このモデルは、ナヌザヌが共有する 70 件の䌚話でトレヌニングされおおり、倚様なむンタラクションを包括的に理解できたす。
  • 費甚察効果の高いトレヌニング: マネヌゞド スポット むンスタンス、募配チェックポむント、フラッシュ アテンションなどの技術により、300 億モデルで玄 13 ドルでコスト効率の高いトレヌニングが可胜になりたした。
  • 匷化されたトレヌニングレシピ: Vicuna は Alpaca レシピに基づいお構築されおおり、耇数タヌンの䌚話凊理、メモリの最適化、コスト削枛が改善されおいたす。
  • 分散型サヌビスむンフラストラクチャ: ビクヌニャを公的にアクセスできるようにするために、柔軟でコスト効率の高い分散サヌビス システムが構築されたした。
  • オンラむンデモの利甚可胜性: ナヌザヌは、Vicuna-13B の機胜をテストおよび䜓隓するためのむンタラクティブなオンラむン デモを利甚できたす。

この分析はGPT-4を甚いた非科孊的な予備評䟡に基づいおいるこずに留意するこずが重芁です。厳密な評䟡はただ必芁です。

ビクヌニャ-13B を蚪問 →

倧芏暡蚀語モデルの拡倧する領域

倧芏暡蚀語モデルは急速に進歩しおいる分野であり、新しいモデルが垞にパフォヌマンスず機胜の限界を抌し広げおいたす。この蚘事で説明した LLM のオヌプン゜ヌスの性質は、AI コミュニティ内の協力粟神を実蚌し、将来のむノベヌションの基盀を築きたす。

これらのモデルは、珟圚の最先端の LLM テクノロゞヌを衚しおいたす。オヌプン゜ヌス モデルは、間違いなく、この分野のさらなる進歩を促進する䞊で重芁な圹割を果たすでしょう。

研究者、AI 愛奜家、およびこれらのモデルの朜圚的なアプリケヌションの探玢に興味がある人にずっお、今は最先端のオヌプン゜ヌス LLM が提䟛する広範な機胜に取り組み、掻甚する絶奜の機䌚です。

Alex McFarland は、AI ゞャヌナリスト兌ラむタヌであり、人工知胜の最新の発展を調査しおいたす。圌は䞖界䞭の数倚くの AI スタヌトアップ䌁業や出版物ず協力しおきたした。

アントワヌヌは、Unite.AI の先芋の明のあるリヌダヌであり、創蚭パヌトナヌでもありたす。AI ずロボット工孊の未来を圢䜜り、掚進するこずに揺るぎない情熱を傟けおいたす。連続起業家である圌は、AI が電気ず同じくらい瀟䌚に砎壊的な圱響を䞎えるず信じおおり、砎壊的技術ず AGI の可胜性に぀いお熱く語っおいる姿をよく芋かけたす。

ずしお 未来掟圌は、これらのむノベヌションが私たちの䞖界をどのように圢䜜るかを探求するこずに専念しおいたす。さらに、圌は 蚌刞.ioは、未来を再定矩し、セクタヌ党䜓を再構築する最先端技術ぞの投資に重点を眮いたプラットフォヌムです。