Refresh

This website www.unite.ai/ja/%E6%A4%9C%E7%B4%A2%E6%8B%A1%E5%BC%B5%E7%94%9F%E6%88%90%E3%83%A9%E3%82%B0%E3%82%92%E4%BD%BF%E7%94%A8%E3%81%97%E3%81%A6-LLM-%E5%B9%BB%E8%A6%9A%E3%82%92%E5%85%8B%E6%9C%8D%E3%81%99%E3%82%8B/ is currently offline. Cloudflare's Always Online™ shows a snapshot of this web page from the Internet Archive's Wayback Machine. To check for the live version, click Refresh.

スタブ 検索拡張生成 (RAG) を使用して LLM 幻覚を克服する - Unite.AI
私達と接続

Artificial Intelligence

検索拡張生成 (RAG) を使用して LLM 幻覚を克服する

mm

公開済み

 on

注目の画像

大規模な言語モデル (LLM) は言語の処理方法と生成方法に革命をもたらしていますが、それらは不完全です。人間が雲の形や月の顔を見るのと同じように、LLM も「幻覚」を起こし、不正確な情報を作成することがあります。として知られるこの現象は、 LLM幻覚、LLM の使用が拡大するにつれて、懸念が増大しています。

間違いはユーザーを混乱させ、場合によっては企業の法的トラブルにつながることもあります。たとえば、2023 年には、空軍退役軍人のジェフリー バトル (航空宇宙教授として知られる) が マイクロソフトに対して訴訟を起こした 彼は、Microsoft の ChatGPT を利用した Bing 検索が、自分の名前検索に関して事実に反して有害な情報を提供することがあることを発見しました。検索エンジンは彼を有罪判決を受けた重犯罪者のジェフリー・レオン・バトルと混同した。

幻覚に対処するには、 検索拡張生成 (RAG) が有望なソリューションとして浮上しています。外部データベースからの知識を組み込んで、LLM の結果の精度と信頼性を高めます。 RAG がどのように LLM の精度と信頼性を高めるのかを詳しく見てみましょう。また、RAG が LLM 幻覚問題に効果的に対抗できるかどうかについても説明します。

LLM 幻覚を理解する: 原因と例

LLM には、次のような有名なモデルが含まれます。 ChatGPT, チャットGLM, クロード、大規模なテキスト データセットでトレーニングされていますが、事実に誤りのある出力、つまり「幻覚」と呼ばれる現象の生成を免れることはできません。幻覚は、LLM が事実の正確さに関係なく、基礎となる言語規則に基づいて意味のある応答を作成するように訓練されているために発生します。

A ティディオの研究 ユーザーの 72% が LLM は信頼できると信じている一方で、75% が AI から誤った情報を少なくとも 3.5 回受け取ったことがあることを発見しました。 GPT-4 や GPT-XNUMX などの最も有望な LLM モデルでも、不正確なコンテンツや意味不明なコンテンツが生成される場合があります。

一般的な LLM 幻覚の概要を以下に示します。

一般的な AI 幻覚のタイプ:

  1. ソースの組み合わせ: これは、モデルがさまざまなソースからの詳細を結合するときに発生し、矛盾やソースの捏造につながることがあります。
  2. 事実上の誤り: LLM は、特にインターネット固有の不正確さを考慮すると、不正確な事実に基づいたコンテンツを生成する可能性があります。
  3. 無意味な情報: LLM は確率に基づいて次の単語を予測します。文法的には正しいが意味のないテキストとなり、コンテンツの信頼性についてユーザーを誤解させる可能性があります。

昨年、2人の弁護士は、ChatGPTが生成した情報に惑わされ、法的文書の中で存在しない6件の事件に言及したとして、制裁を受ける可能性がありました。この例では、LLM で生成されたコンテンツに批判的な目で取り組むことの重要性を強調し、信頼性を確保するための検証の必要性を強調しています。その創造力はストーリーテリングなどのアプリケーションには有益ですが、学術研究の実施、医学および財務分析レポートの作成、法的アドバイスの提供など、事実を厳密に遵守する必要があるタスクには課題が生じます。

LLM 幻覚の解決策の探求: 検索拡張生成 (RAG) の仕組み

2020年には、 LLM研究者 と呼ばれるテクニックを導入しました 検索拡張生成 (RAG) 外部データ ソースを統合することで LLM 幻覚を軽減します。事前トレーニングされた知識のみに依存する従来の LLM とは異なり、RAG ベースの LLM モデルは、質問に答えたりテキストを生成したりする前に、外部データベースから関連情報を動的に取得することによって、事実に正確な応答を生成します。

RAG プロセスの内訳:

RAGのステップ

RAG プロセスの手順: ソース

ステップ 1: 取得

システムは、ユーザーのクエリに関連する情報を特定の知識ベースで検索します。たとえば、サッカー ワールドカップの前回の優勝者について尋ねられると、最も関連性の高いサッカー情報が検索されます。

ステップ 2: 拡張

元のクエリは、見つかった情報で拡張されます。サッカーの例を使用すると、「サッカー ワールド カップで優勝したのは誰ですか?」というクエリになります。 「アルゼンチンがサッカーワールドカップで優勝した」などの具体的な詳細が更新されます。

ステップ 3: 生成

強化されたクエリを使用して、LLM は詳細かつ正確な応答を生成します。私たちの場合、アルゼンチンがワールドカップで優勝したという拡張情報に基づいて応答を作成します。

この方法は不正確さを軽減するのに役立ち、LLM の応答の信頼性が高まり、正確なデータに基づいたものになります。

幻覚軽減における RAG の長所と短所

RAG は、生成プロセスを修正することで幻覚を軽減することが期待できます。このメカニズムにより、RAG モデルはより正確で最新のコンテキストに関連した情報を提供できるようになります。

確かに、より一般的な意味で検索拡張生成 (RAG) について議論することで、さまざまな実装におけるその利点と制限についてより広範な理解が可能になります。

RAG の利点:

  • より良い情報検索: RAG は、ビッグ データ ソースから正確な情報を迅速に見つけます。
  • 改善されたコンテンツ: ユーザーのニーズに合わせた明確で適切なコンテンツを作成します。
  • 柔軟な使用: ユーザーは、独自のデータ ソースを使用するなど、特定の要件に合わせて RAG を調整し、効率を高めることができます。

RAG の課題:

  • 特定のデータが必要: クエリのコンテキストを正確に理解して、関連性のある正確な情報を提供することは困難な場合があります。
  • スケーラビリティ: パフォーマンスを維持しながら大規模なデータセットとクエリを処理できるようにモデルを拡張することは困難です。
  • 継続的な更新: ナレッジ データセットを最新の情報で自動的に更新すると、リソースが大量に消費されます。

RAG の代替手段の検討

RAG 以外にも、LLM 研究者が幻覚を軽減できる有望な方法をいくつか紹介します。

  • G-エヴァル: 生成されたコンテンツの正確性を信頼できるデータセットと相互検証し、信頼性を高めます。
  • SelfCheckGPT: 自身のエラーを自動的にチェックして修正し、出力の正確さと一貫性を保ちます。
  • 迅速なエンジニアリング: ユーザーが正確な入力プロンプトを設計して、モデルを正確で適切な応答に導くのに役立ちます。
  • 微調整: ドメイン固有のパフォーマンスを向上させるために、タスク固有のデータセットに合わせてモデルを調整します。
  • ロラ (低ランク適応): この方法では、タスク固有の適応のためにモデルのパラメーターの一部が変更され、効率が向上します。

RAG とその代替手段の探求は、LLM の精度と信頼性を向上させるための動的かつ多面的なアプローチを浮き彫りにします。私たちが進歩するにつれて、LLM 幻覚に固有の課題に対処するには、RAG のようなテクノロジーの継続的な革新が不可欠です。

詳細な分析やニュースなど、AI と機械学習の最新開発に関する最新情報を入手するには、次の Web サイトにアクセスしてください。 団結します。