Connect with us

AIの作話を止める:ホールシネーションを防ぐためのガイド

ソートリーダー

AIの作話を止める:ホールシネーションを防ぐためのガイド

mm

AIは、ほとんどの業界が運営する方法を革命的に変えている。私たちをより効率的、より生産的、そして – 正しく実装された場合 – 全体的に仕事がうまくいくようにしている。但し、私たちがこの新しいテクノロジーに依存する速度が急激に増加するにつれて、私たち自身を一つの単純な事実を思い出させる必要がある:AIは不滅ではない。AIの出力は、そのまま受け取るべきではない。なぜなら、人間と同様に、AIも間違いを犯すことができるからだ。

これらの間違いを「AIのホールシネーション」と呼ぶ。そうしたミスは、数学の問題を間違って解くことから、政府の政策について不正確な情報を提供することまで、幅広い範囲に及ぶ。高度に規制された業界では、ホールシネーションは高額な罰金や法的な問題を引き起こす可能性があり、顧客の満足度も低下する。

したがって、AIのホールシネーションの頻度は懸念されるべきである:推定によると、現代の大規模言語モデル(LLM)は、1%から30%の時間をホールシネーションに費やしている。これにより、毎日数百の誤った回答が生成され、ビジネスがこのテクノロジーを活用しようとする場合、実装するツールを慎重に選択する必要がある。

では、AIのホールシネーションが発生する理由、什么が懸かっているのか、そしてそれらをどうやって特定して修正するかを見ていこう。

ガーベージ・イン、ガーベージ・アウト

あなたは子供の頃、ゲーム「電話」を行ったことを覚えていますか?開始フレーズがプレイヤーからプレイヤーへ伝わるにつれて、変化し、最終的に完全に異なるステートメントになってしまうのを見たことがありますか?

AIが入力から学ぶ方法は似ている。LLMが生成する応答は、入力された情報の質だけが良い。つまり、不正確なコンテキストは、虚偽の情報の生成と拡散につながる可能性がある。如果AIシステムが不正確なデータ、古いデータ、または偏ったデータで構築されている場合、その出力もそれを反映するだろう。

したがって、LLMは入力に応じてのみ良いものとなる。特に、人間の介入や監視が不足している場合、自律的なAIソリューションが普及するにつれて、ツールに正しいデータコンテキストを提供することが重要になる。データの徹底的なトレーニングと、LLMが提供されたコンテキストのみから応答するように導く能力が必要だ。

ホールシネーションが重要な理由

顧客向けビジネスでは、正確性がすべてである。如果従業員が、顧客データの分析や顧客の質問に答えるなどのタスクにAIを使用している場合、彼らはツールが生成する応答が正確であることを信頼する必要がある。

そうでない場合、ビジネスは評判の損害や顧客のロイヤルティの損失に直面する可能性がある。如果顧客がチャットボットから不十分または虚偽の回答を受け取ったり、チャットボットの出力を従業員が事実確認している間待たされたりすると、彼らはビジネスを他に移す可能性がある。人々は、ビジネスが彼らに虚偽の情報を提供しているかどうか心配する必要はない。彼らは迅速で信頼できるサポートを求めている。つまり、これらのやり取りを正しく行うことは非常に重要である。

ビジネスリーダーは、従業員のために適切なAIツールを選択する際に、十分な注意を払う必要がある。AIは従業員の時間とエネルギーを解放し、より高価値のタスクに集中できるようにするはずだ。ただし、常に人間の監視が必要なチャットボットに投資することは、AIの採用の目的を完全に否定することになる。但し、ホールシネーションの存在は本当に目立つものなのか、それとも単に間違った応答を識別するために使用される用語なのか?

AIのホールシネーションとの戦い

考慮すべき点:ダイナミック・ミーニング・セオリー(DMT)という概念があり、ユーザーとAIの間で理解が交換される。しかし、言語と知識の限界により、応答の解釈に齟齬が生じる。

AI生成の応答の場合、基礎となるアルゴリズムがまだ人間の期待と一致するように正確に解釈またはテキストを生成するために十分に装備されていない可能性がある。この不一致により、表面上は正確な応答が生成されるが、真の理解に必要な深みやニュアンスが欠けている。

さらに、ほとんどの汎用的なLLMは、インターネット上で公開されているコンテンツのみから情報を抽出する。企業向けのAIアプリケーションは、個々の業界やビジネスに特有のデータやポリシーによって情報を提供することで、より優れて実行される。モデルは、特にトーンや構文に応答するように設計されたエージェントソリューションを使用した人間のフィードバックによっても改善できる。

これらのツールは、消費者向けになる前に厳格にテストされるべきだ。これは、AIのホールシネーションを防ぐための重要な部分である。全体のフローは、LLMがペルソナの役割を果たすターンベースの会話を使用してテストされるべきだ。これにより、ビジネスは、AIモデルを世界にリリースする前に会話の全体的な成功をよりよく仮定できる。

AIテクノロジーの開発者とユーザーは、受け取る応答におけるダイナミック・ミーニング・セオリーと、入力で使用される言語のダイナミクスに留意する必要がある。コンテキストは重要である。人間として、私たちのほとんどのコンテキストは、ボディ・ランゲージ、社会的トレンド、さらにはトーンを通じて暗黙の方法で理解される。人間として、私たちも質問に答える際にホールシネーションを起こす可能性がある。しかし、現在のAIのイテレーションでは、人間と人間の間の理解は、コンテキストを提供する際にそう簡単に文脈化できない。したがって、私たちが提供するコンテキストをより批判的に見る必要がある。

簡単に言えば、すべてのAIモデルは等しくは作られていない。テクノロジーがより複雑なタスクを完了するように開発されるにつれて、ビジネスが実装を検討する場合、顧客のインタラクションや体験を向上させるツールではなく、損なうツールを特定することが重要になる。

ソリューション提供者がホールシネーションの発生可能性を最小限に抑えるためにできることをすべて行うという責任だけではない。潜在的な購入者も役割を果たす。厳格にトレーニングされ、テストされ、独自のデータ(インターネット上のすべてのものではなく)から学習できるソリューションを優先することで、ビジネスはAI投資の最もを得て、従業員と顧客の成功を確実にすることができる。

Dan Balaceanu, DRUID AIのチーフプロダクトオフィサーは、企業組織内の開発部門とプロセスを管理する経験を持っています。彼は、15年以上のキャリアを持つ、高度に熟練したソリューションアーキテクトおよびテクニカルプロジェクトマネージャーであり、顧客要件の収集、システム分析、アプリケーション開発およびテストを行う、中規模開発および実装プロジェクトをリードしてきました。これらのプロジェクトは、顧客中心のチームで行われました。