Connect with us

LLMのホールユーションとは何か?原因、倫理的な懸念、予防

人工知能

LLMのホールユーションとは何か?原因、倫理的な懸念、予防

mm

大規模言語モデル(LLM)は、人間のようなテキストを分析および生成する能力を持つ人工知能システムです。しかし、それらには問題があります – LLMはホールユーションを起こす、つまり、事実と異なることを言います。LLMのホールユーションは、研究者がモデルが出力する結果を制御できない場合、人間に役立つ重要なシステムを構築できないため、この分野の進歩について研究者を心配させています。このことについては後で詳しく説明します。

一般に、LLMは、リアルな出力を生成するために、膨大な量のトレーニングデータと複雑な学習アルゴリズムを使用します。場合によっては、コンテキスト内学習が、これらのモデルをわずか数つの例でトレーニングするために使用されます。LLMは、機械翻訳、感情分析、仮想AIアシスタント、画像注釈、自然言語処理など、さまざまなアプリケーション領域で人気を博しています。

LLMの先進的な性質にもかかわらず、それらはまだ偏見、エラー、ホールユーションの影響を受けやすいです。Metaの現チーフAIサイエンティストであるYann LeCunは、最近、LLMのホールユーションを引き起こす中心的な欠陥について言及しました:“大規模言語モデルには、言語が記述する根本的な現実に対する理解がない。それらのシステムは、文法的にも意味的にも適切なテキストを生成しますが、ただ統計的な一貫性を満たすという以外の目的を持っていない”

LLMのホールユーション

Image by Gerd Altmann from Pixabay

ホールユーションとは、モデルが現実から断絶したが、文法的にも意味的にも正しい出力を生成することを指します。ホールユーションは、LLMの主要な倫理的な懸念の1つであり、ドメインの知識が不足しているユーザーがこれらの言語モデルに過度に依存し始めた場合、有害な結果をもたらす可能性があります。

ある程度のホールユーションは、すべての自律的なLLMで避けられません。たとえば、モデルは、実際には発言されたことがない有名人の偽の引用を帰属させることができます。彼らは、研究論文で事実的に不正確なことを主張したり、存在しない情報源を引用したりして、誤情報を広める可能性があります。

しかし、AIモデルをホールユーションさせることは、常に悪影響を及ぼすわけではありません。たとえば、新しい研究によると、科学者はホールユーションを起こすLLMを使用して、無限の特性を持つ「新しいタンパク質」を発見しています。

LLMのホールユーションの原因

LLMは、オーバーフィッティング、エンコード/デコードのエラー、トレーニングバイアスなど、さまざまな要因によりホールユーションを起こす可能性があります。

オーバーフィッティング

Image by janjf93 from Pixabay

オーバーフィッティングとは、AIモデルがトレーニングデータに過度に適合する問題です。ただし、モデルは、トレーニングデータに含まれない可能性のある入力の全範囲を表現できないため、予測能力を一般化できないため、ホールユーションを起こす可能性があります。

エンコード/デコードのエラー

Image by geralt from Pixabay

テキストとその後の表現のエンコード/デコードにエラーがある場合、モデルは無意味で誤った出力を生成する可能性があります。

トレーニングバイアス

Image by Quince Creative from Pixabay

トレーニングデータにバイアスがある場合、モデルはデータの実際の性質ではなく、バイアスを表す結果を生成する可能性があります。これは、トレーニングデータの多様性が不足していることと似ており、モデルが新しいデータに一般化する能力を制限します。

LLMの複雑な構造により、AI研究者や実践者がホールユーションの根本的な原因を特定、解釈、修正することは非常に困難です。

LLMのホールユーションの倫理的な懸念

LLMは、ホールユーションを通じて有害なバイアスを永続させ、拡大させる可能性があり、ユーザーに悪影響を及ぼし、有害な社会的結果をもたらす可能性があります。最も重要な倫理的な懸念の1つは以下のとおりです:

差別的および有害なコンテンツ

Image by ar130405 from Pixabay

LLMのトレーニングデータは、社会文化的ステレオタイプが含まれていることが多いため、社会的、文化的な偏見や多様性の欠如により、LLMは、社会の弱者に対する有害な考えや差別的なコンテンツを生成し、強化する可能性があります。

人種、性別、宗教、民族性などに基づいて、差別的なコンテンツを生成する可能性があります。

プライバシーの問題

Image by JanBaby from Pixabay

LLMは、個人の個人情報を含む大量のトレーニングコーパスでトレーニングされています。モデルが個人情報を漏らすことがあることがあります。社会保障番号、自宅住所、携帯電話番号、医療情報などの特定の情報を漏らす可能性があります。

誤情報とデザインフォメーション

Image by geralt from Pixabay

言語モデルは、人間のようなコンテンツを生成できますが、実際には誤りで、実証的な証拠によって裏付けられていません。これは、誤情報を生み出す可能性のある偶発的なものか、悪意のある意図によって故意にデザインフォメーションを広める可能性があります。チェックされない場合は、悪影響のある社会文化経済政治的トレンドを生み出す可能性があります。

LLMのホールユーションの予防

Image by athree23 from Pixabay

研究者や実践者は、LLMのホールユーションの問題に対処するために、さまざまなアプローチを採用しています。これには、トレーニングデータの多様性を高めること、内在的なバイアスを除去すること、より優れた正則化技術を使用すること、敵対的なトレーニングや強化学習を使用することなどがあります。

  • より優れた正則化技術の開発は、ホールユーションに対処するための核心です。これらは、オーバーフィッティングやホールユーションを引き起こす他の問題を防ぐのに役立ちます。
  • データ増強は、研究研究によって証明されているように、ホールユーションの頻度を減らすことができます。データ増強には、文の中にランダムなトークンを追加することが含まれます。これにより、トレーニングセットのサイズが2倍になり、ホールユーションの頻度が減少します。
  • OpenAIとGoogleのDeepMindは、人間のフィードバックを使用した強化学習(RLHF)というテクニックを開発しました。これは、ChatGPTのホールユーションの問題に対処するために使用されます。人間の評価者がモデルが出力する回答を頻繁にレビューし、ユーザーのプロンプトに最も適切な回答を選択します。このフィードバックは、モデルを調整するために使用されます。OpenAIのチーフサイエンティストであるIlya Sutskeverは、最近、このアプローチがChatGPTのホールユーションを解決する可能性があると述べています:“人間のフィードバックからの強化学習の後のステップを単に改善することで、ホールユーションを教えることができるということは、私はかなり楽観的です”
  • 将来のトレーニングのためにホールユーションされたコンテンツを特定することも、ホールユーションに対処する方法の1つです。新しいテクニックでは、出力の各トークンがホールユーションされたかどうかを予測するために、トークンレベルのホールユーション検出が行われます。また、ホールユーション検出器の教師なし学習方法も含まれています。

簡単に言えば、LLMのホールユーションは、増大する懸念事項です。努力が続けられているにもかかわらず、まだ問題に対処するために多くの作業が必要です。これらのモデルの複雑さにより、ホールユーションの根本的な原因を正しく特定して修正することは非常に困難です。

しかし、継続的な研究と開発により、LLMのホールユーションを軽減し、倫理的な結果を減らすことが可能です。

LLMとホールユーションの予防技術についてさらに学びたい場合は、unite.aiをチェックして、知識を広めましょう。

Haziqaは、AIおよびSaaS企業向けの技術コンテンツの作成における豊富な経験を持つデータサイエンティストです。