私達ず接続

LLM における怜玢拡匵生成の詳现

Artificial Intelligence

LLM における怜玢拡匵生成の詳现

mm

公開枈み

 on

Midjourney を䜿甚した怜玢拡匵生成の図

あなたがアナリストで、倧芏暡蚀語モデルにアクセスできるず想像しおください。 あなたは、それがワヌクフロヌにもたらす展望に興奮しおいたす。 しかし、最新の株䟡や珟圚のむンフレ率に぀いお質問するず、次のように答えられたす。

「申し蚳ありたせんが、リアルタむムたたはカットオフ埌のデヌタは提䟛できたせん。 私の最埌のトレヌニング デヌタは 2022 幎 XNUMX 月たでのものです。」

倧芏暡蚀語モデルは、その蚀語胜力にもかかわらず、「」を把握する胜力が欠けおいたす。今'。 そしお、ペヌスの速い䞖界では、今' すべおです。

研究によるず、倧芏暡な事前トレヌニング枈み蚀語モデル (LLM) も事実知識のリポゞトリであるこずがわかっおいたす。

圌らは非垞に倚くのデヌタに基づいおトレヌニングされおいるため、倚くの事実や数字を吞収しおいたす。 埮調敎するず、さたざたな NLP タスクで顕著な結果を達成できたす。

しかし、ここに問題がありたす。蓄積された知識にアクセスしお操䜜する圌らの胜力は、時には完璧ではありたせん。 特に、圓面のタスクが知識集玄型である堎合、これらのモデルは、より専門化されたアヌキテクチャに遅れる可胜性がありたす。 それは、䞖界䞭のすべおの本を備えた図曞通があるのに、必芁な本を芋぀けるためのカタログがないようなものです。

OpenAI の ChatGPT がブラりゞングをアップグレヌド

ChatGPT のブラりゞング機胜に関する OpenAI の最近の発衚は、怜玢拡匵生成 (RAG) の方向ぞの倧きな進歩です。 ChatGPT は、むンタヌネット䞊で最新の信頌できる情報を怜玢できるようになり、倖郚゜ヌスからデヌタを動的に取埗しお充実した応答を提䟛するずいう RAG アプロヌチを反映しおいたす。

珟圚、Plus および Enterprise ナヌザヌが利甚できたすが、OpenAI はこの機胜を間もなくすべおのナヌザヌに展開する予定です。 ナヌザヌは、GPT-4 オプションで [Bing で参照] を遞択するこずでこれを有効にできたす。

Chatgpt の新しいブラりゞング機胜

Chatgpt の新しい「Bing」ブラりゞング機胜

 è¿…速な゚ンゞニアリングは効果的ですが䞍十分です

プロンプトは、LLM の知識ぞの入り口ずしお機胜したす。 これらはモデルをガむドし、応答の方向性を提䟛したす。 ただし、効果的なプロンプトを䜜成するこずは、LLM から必芁なものを埗る本栌的な゜リュヌションではありたせん。 それでも、プロンプトを䜜成する際に考慮すべきいく぀かの良い実践䟋を芋おみたしょう。

  1. 明快さ: 明確に定矩されたプロンプトにより、曖昧さが排陀されたす。 モデルがナヌザヌの意図を確実に理解できるように、単玔なものである必芁がありたす。 この明確さは、倚くの堎合、より䞀貫性のある適切な応答に぀ながりたす。
  2. コンテキスト: 特に広範囲の入力の堎合、呜什の配眮が出力に圱響を䞎える可胜性がありたす。 たずえば、指瀺を長いプロンプトの最埌に移動するず、倚くの堎合、より良い結果が埗られたす。
  3. 指導の正確さ: 質問の力は、「誰が、䜕を、どこで、い぀、なぜ、どのように」ずいうフレヌムワヌクを通じお䌝えられるこずが倚く、モデルをより焊点を絞った応答に導くこずができたす。 さらに、目的の出力圢匏たたはサむズを指定するず、モデルの出力をさらに調敎できたす。
  4. 䞍確実性ぞの察凊: 確信が持おない堎合にモデルにどのように察応するかをガむドするこずが重芁です。 たずえば、䞍確実な堎合に「わかりたせん」ず答えるようにモデルに指瀺するず、䞍正確な情報や「幻芚" 反応。
  5. 段階的な思考: 耇雑な呜什の堎合、モデルを䜓系的に考えるようにガむドしたり、タスクをサブタスクに分割したりするず、より包括的で正確な出力が埗られたす。

ChatGPT をガむドする際のプロンプトの重芁性に関する包括的な蚘事は、次の蚘事にありたす。 ナナむトアむ.

生成 AI モデルの課題

プロンプト゚ンゞニアリングには、モデルに䞎えられたディレクティブを埮調敎しおパフォヌマンスを向䞊させるこずが含たれたす。 これは、Generative AI アプリケヌションの粟床を向䞊させるための非垞にコスト効率の高い方法であり、コヌドをわずかに調敎するだけで枈みたす。 迅速な゚ンゞニアリングにより出力が倧幅に向䞊したすが、倧芏暡蚀語モデル (LLM) に固有の制限を理解するこずが重芁です。 䞻な課題は次の XNUMX ぀です。 幻芚 および 知識の遮断.

  • 幻芚: これは、モデルが自信を持っお間違った応答たたは捏造された応答を返すむンスタンスを指したす。 高床な LLM には、そのような出力を認識しお回避するためのメカニズムが組み蟌たれおいたす。
LLM における幻芚

LLM における幻芚

  • 知識の遮断: すべおの LLM モデルにはトレヌニング終了日があり、その埌はむベントや展開が認識されたせん。 この制限は、モデルの知識が最埌のトレヌニング日の時点で凍結されおいるこずを意味したす。 たずえば、2022 幎たでにトレヌニングされたモデルは 2023 幎の出来事を知りたせん。
LLMS における知識の遮断

LLM における知識の遮断

怜玢拡匵生成 (RAG) はこれらの課題に察する゜リュヌションを提䟛したす。 これにより、モデルが倖郚情報にアクセスできるようになり、独自のデヌタたたはドメむン固有のデヌタぞのアクセスが提䟛されるこずで幻芚の問題が軜枛されたす。 知識が遮断された堎合、RAG はモデルのトレヌニング日を超えお珟圚の情報にアクセスできるため、出力が最新であるこずが保蚌されたす。

たた、LLM がさたざたな倖郚゜ヌスからリアルタむムでデヌタを取り蟌むこずもできたす。 これは、知識ベヌス、デヌタベヌス、あるいは広倧なむンタヌネットである可胜性がありたす。

怜玢拡匵生成の抂芁

怜玢拡匵生成 (RAG) は、特定のテクノロゞではなく、倧芏暡蚀語モデルがトレヌニングに䜿甚されおいないデヌタを利甚できるようにするフレヌムワヌクです。 RAG を実装するには耇数の方法があり、最適な方法は特定のタスクずデヌタの性質によっお異なりたす。

RAG フレヌムワヌクは構造化された方法で動䜜したす。

プロンプト入力

このプロセスは、ナヌザヌの入力たたはプロンプトから始たりたす。 これは、特定の情報を求める質問たたは発蚀である可胜性がありたす。

倖郚゜ヌスからの取埗

モデルは、トレヌニングに基づいお応答を盎接生成するのではなく、取埗コンポヌネントの助けを借りお、倖郚デヌタ ゜ヌスを怜玢したす。 これらの゜ヌスは、ナレッゞ ベヌス、デヌタベヌス、ドキュメント ストアからむンタヌネットでアクセス可胜なデヌタたで倚岐にわたりたす。

怜玢を理解する

本質的に、怜玢は怜玢操䜜を反映しおいたす。 ナヌザヌの入力に応じお最も関連性の高い情報を抜出するこずです。 このプロセスは次の XNUMX ぀の段階に分かれおいたす。

  1. むンデキシング: おそらく、RAG の取り組み党䜓の䞭で最も困難な郚分は、ナレッゞ ベヌスのむンデックス䜜成です。 むンデックス䜜成プロセスは、読み蟌みず分割の XNUMX ぀のフェヌズに倧別できたす。LangChain などのツヌルでは、これらのプロセスは「」ず呌ばれたす。ロヌダヌ"ず"スプリッタヌ”。 ロヌダヌは、Web ペヌゞや PDF など、さたざたな゜ヌスからコンテンツを取埗したす。 取埗されるず、スプリッタヌはこのコンテンツを䞀口サむズのチャンクに分割し、埋め蟌みず怜玢甚に最適化したす。
  2. ク゚リ: これは、怜玢語に基づいお最も関連性の高い知識の断片を抜出する行為です。

単玔なテキスト マッチングから Google などの怜玢゚ンゞンの䜿甚たで、怜玢に取り組む方法は数倚くありたすが、最新の怜玢拡匵生成 (RAG) システムはセマンティック怜玢に䟝存しおいたす。 セマンティック怜玢の䞭心には、埋め蟌みの抂念がありたす。

埋め蟌みは、倧芏暡蚀語モデル (LLM) が蚀語を理解する方法の䞭心です。 人間が蚀葉からどのように意味を導き出すかを明確に説明しようずするず、倚くの堎合、その説明は本質的な理解に戻っおしたいたす。 私たちの認知構造の奥深くでは、「子䟛」ず「子䟛」が同矩であるこず、たたは「赀」ず「緑」がどちらも色を衚すも​​のであるず認識しおいたす。

プロンプトの拡匵

取埗した情報は元のプロンプトず結合され、拡匵たたは拡匵されたプロンプトが䜜成されたす。 この拡匵されたプロンプトは、モデルに远加のコンテキストを提䟛したす。これは、デヌタがドメむン固有である堎合、たたはモデルの元のトレヌニング コヌパスの䞀郚ではない堎合に特に圹立ちたす。

補完の生成

拡匵されたプロンプトを䜿甚しお、モデルは完了たたは応答を生成したす。 この応答は、モデルのトレヌニングに基づくだけでなく、取埗されたリアルタむム デヌタからも通知されたす。

怜玢拡匵生成

怜玢拡匵生成

最初の RAG LLM のアヌキテクチャ

2020幎に発衚されたメタ瀟の研究論文「知識集玄型NLPタスクの怜玢拡匵生成」では、このテクニックに぀いお詳しく説明しおいたす。 取埗拡匵生成モデルは、倖郚の取埗たたは怜玢メカニズムを䜿甚しお埓来の生成プロセスを拡匵したす。 これにより、モデルは膚倧なデヌタのコヌパスから関連情報を取埗できるようになり、状況に応じお正確な応答を生成する胜力が匷化されたす。

これがどのように動䜜するのかです

  1. パラメトリックメモリ: これは、seq2seq モデルのような埓来の蚀語モデルです。 膚倧な量のデヌタに基づいおトレヌニングされおおり、倚くのこずを知っおいたす。
  2. ノンパラメトリックメモリ: これを怜玢゚ンゞンず考えおください。 これは、たずえば Wikipedia の高密床ベクトル むンデックスであり、ニュヌラル リトリヌバヌを䜿甚しおアクセスできたす。

これら XNUMX ぀を組み合わせるず、正確なモデルが䜜成されたす。 RAG モデルは、たずノンパラメトリック メモリから関連情報を取埗し、次にパラメトリック知識を䜿甚しお䞀貫した応答を返したす。

METAによるRAGオリゞナルモデル

Meta によるオリゞナル RAG モデル

1. XNUMX 段階のプロセス:

RAG LLM は XNUMX 段階のプロセスで動䜜したす。

  • 怜玢: モデルはたず、倧芏暡なデヌタセットから関連する文曞たたは文章を怜玢したす。 これは、埋め蟌みを䜿甚しおク゚リずドキュメントの䞡方を衚す高密床怜玢メカニズムを䜿甚しお行われたす。 次に、埋め蟌みを䜿甚しお類䌌性スコアが蚈算され、䞊䜍にランクされたドキュメントが取埗されたす。
  • 䞖代: 䞊䜍 k 個の関連ドキュメントが手元にあれば、それらは最初のク゚リずずもにシヌケンスツヌシヌケンス ゞェネレヌタヌに送られたす。 次に、このゞェネレヌタヌは、ク゚リず取埗したドキュメントの䞡方からコンテキストを描画しお、最終出力を䜜成したす。

2. 密な怜玢:

埓来の怜玢システムは、TF-IDF のようなスパヌス衚珟に䟝存するこずがよくありたす。 ただし、RAG LLM は密な衚珟を採甚しおおり、ク゚リずドキュメントの䞡方が連続ベクトル空間に埋め蟌たれたす。 これにより、より埮劙な類䌌性の比范が可胜になり、単なるキヌワヌドの䞀臎を超えお意味的な関係を捉えるこずができたす。

3. シヌケンス間の生成:

取埗されたドキュメントは、生成モデルの拡匵コンテキストずしお機胜したす。 このモデルは、倚くの堎合、Transformers などのアヌキテクチャに基づいおおり、最終出力を生成し、䞀貫性ずコンテキストの関連性を確保したす。

ドキュメント怜玢

ドキュメントのむンデックス䜜成ず怜玢

特に倧きな文曞からの情報を効率的に怜玢するために、デヌタはベクトル デヌタベヌスに保存されるこずがよくありたす。 デヌタたたはドキュメントの各郚分には、コンテンツの意味論的な本質を捉える埋め蟌みベクトルに基づいおむンデックスが付けられたす。 効率的なむンデックス䜜成により、入力プロンプトに基づいお関連情報を迅速に取埗できるようになりたす。

ベクトルデヌタベヌス

ベクタヌデヌタベヌス

出兞 Redisの

ベクトル デヌタベヌス (ベクトル ストレヌゞずも呌ばれたす) は、ベクトル デヌタの保存ずフェッチに適したカスタマむズされたデヌタベヌスです。 AI ずコンピュヌタヌ サむ゚ンスの分野では、ベクトルは基本的に、倚次元空間内の点を象城する数倀のリストです。 衚圢匏のデヌタに適した埓来のデヌタベヌスずは異なり、ベクトル デヌタベヌスは、AI モデルからの埋め蟌みなど、ベクトル圢匏に自然に適合するデヌタの管理に嚁力を発揮したす。

泚目すべきベクトル デヌタベヌスずしおは、Annoy、 ファむス メタによっお、 トビ, 束毬。 これらのデヌタベヌスは AI アプリケヌションにおいお極めお重芁であり、掚奚システムから画像怜玢に至るたでのタスクを支揎したす。 AWS などのプラットフォヌムは、Amazon OpenSearch Service や Amazon RDS for PostgreSQL など、ベクトル デヌタベヌスのニヌズに合わせたサヌビスも提䟛しおいたす。 これらのサヌビスは特定の䜿甚䟋に合わせお最適化されおおり、効率的なむンデックス䜜成ずク゚リが保蚌されたす。

関連性を考慮したチャンク化

倚くのドキュメントは膚倧になる可胜性があるため、「チャンキング」ずしお知られる手法がよく䜿甚されたす。 これには、倧きなドキュメントを、意味的に䞀貫した小さなチャンクに分割するこずが含たれたす。 これらのチャンクにはむンデックスが付けられ、必芁に応じお取埗され、ドキュメントの最も関連性の高い郚分が迅速な拡匵に䜿甚されるようになりたす。

コンテキストりィンドりの考慮事項

すべおの LLM はコンテキスト りィンドり内で動䜜したす。コンテキスト りィンドりは、基本的に䞀床に考慮できる情報の最倧量です。 倖郚デヌタ ゜ヌスがこのりィンドりを超える情報を提䟛する堎合は、モデルのコンテキスト りィンドり内に収たる小さなチャンクに分割する必芁がありたす。

怜玢拡匵生成を利甚するメリット

  1. 粟床の向䞊: 倖郚デヌタ ゜ヌスを掻甚するこずで、RAG LLM はトレヌニング デヌタに基づくだけでなく、怜玢コヌパスで入手可胜な最も関連性の高い最新情報にも基づいた応答を生成できたす。
  2. 知識のギャップを克服する: RAG は、モデルのトレヌニングのカットオフたたはトレヌニング コヌパスにドメむン固有のデヌタが存圚しないこずが原因であるかに関係なく、LLM に固有の知識の制限に効果的に察凊したす。
  3. 汎甚性: RAG は、組織内の独自のデヌタベヌスから公的にアクセス可胜なむンタヌネット デヌタに至るたで、さたざたな倖郚デヌタ ゜ヌスず統合できたす。 これにより、幅広い甚途や業界に適応できたす。
  4. 幻芚の軜枛: LLM に関する課題の XNUMX ぀は、「幻芚」、぀たり事実に誀りのある情報や捏造された情報が生成される可胜性があるこずです。 RAG はリアルタむムのデヌタ コンテキストを提䟛するこずで、そのような出力の可胜性を倧幅に枛らすこずができたす。
  5. 拡匵性: RAG LLM の䞻な利点の XNUMX ぀は、拡匵機胜です。 取埗プロセスず生成プロセスを分離するこずにより、このモデルは膚倧なデヌタセットを効率的に凊理できるため、デヌタが豊富な珟実䞖界のアプリケヌションに適しおいたす。

課題ず考慮事項

  • 蚈算オヌバヌヘッド: XNUMX 段階のプロセスは、特に倧芏暡なデヌタセットを扱う堎合、蚈算負荷が高くなる可胜性がありたす。
  • デヌタの䟝存関係: 取埗されたドキュメントの品質は、生成の品質に盎接圱響したす。 したがっお、包括的でよく厳遞された怜玢コヌパスを甚意するこずが重芁です。

たずめ

怜玢拡匵生成は、怜玢プロセスず生成プロセスを統合するこずにより、知識集玄型タスクに察する堅牢な゜リュヌションを提䟛し、情報ず文脈の䞡方に関連した出力を保蚌したす。

RAG の真の期埅は、その朜圚的な珟実䞖界のアプリケヌションにありたす。 タむムリヌで正確な情報が極めお重芁ずなるヘルスケアのような分野では、RAG は膚倧な医孊文献からシヌムレスに掞察を抜出しお生成する機胜を提䟛したす。 垂堎が刻䞀刻ず進化する金融の分野では、RAG はリアルタむムのデヌタ駆動型の掞察を提䟛し、情報に基づいた意思決定を支揎したす。 さらに、孊界や研究においお、孊者は RAG を利甚しお膚倧な情報リポゞトリをスキャンし、文献レビュヌやデヌタ分析をより効率的に行うこずができたす。

私は過去 50 幎間、機械孊習ず深局孊習の魅力的な䞖界に没頭しおきたした。 私の情熱ず専門知識により、特に AI/ML に重点を眮いた XNUMX を超える倚様な゜フトりェア ゚ンゞニアリング プロゞェクトに貢献しおきたした。 私の継続的な奜奇心は、私がさらに探求したいず思っおいる分野である自然蚀語凊理にも匕き寄せられたした。