ソートリーダー
AIがホールユシネーションを起こしている場合、AIを責めるな

AIの「ホールユシネーション」 – それは、信憑性のある音を出すが、偽の答え – は、最近のニューヨークタイムズの記事のように、多くのメディアの注目を集めています。 AI Is Getting More Powerful, But Its Hallucinations Are Getting Worse。ホールユシネーションは、消費者向けのチャットボットで扱うときに、実際の危険です。ビジネスアプリケーションにおけるAIの文脈では、それはさらに深刻な懸念事項です。幸いなことに、ビジネステクノロジーのリーダーとして、私はそれに対してより多くの管理権限を持っています。私は、エージェントが有意義な答えを生み出すために必要な正しいデータを持っていることを確認できます。
そのため、それが実際の問題です。ビジネスでは、AIホールユシネーションの言い訳はありません。AIを責めるのを止めましょう。AIを適切に使用していない自分を責めましょう。
ジェネレーティブAIツールがホールユシネーションを起こすとき、それらは設計されていることを行っています – 利用可能なデータに基づいて、最も良い答えを提供します。彼らが何かをでっち上げ、現実に基づいていない答えを生み出すとき、それは、彼らが関連するデータを欠いている、見つけることができない、または質問を理解できないためです。はい、新しいモデル、例えばOpenAIのo3とo4-miniは、より多くのホールユシネーションを起こし、質問に対して良い答えがないときに、より「創造的」に動作します。はい、より強力なツールはより多くのホールユシネーションを起こす可能性があります – しかし、それらは私たちがそれらを成功させるために設定した場合、より強力で価値のある結果を生み出すこともできます。
あなたのAIがホールユシネーションを起こさないようにしたい場合、あなたのAIをデータで飢えさせないでください。AIに問題を解決するために最も適切なデータを与え、そして、それは道を外れることをためらうでしょう。
それでも、どのAIツールと一緒に作業する場合でも、私はあなたの批判的思考スキルを維持することをお勧めします。AIエージェントが提供する結果は、生産的で楽しいかもしれませんが、ポイントは、ソフトウェアにすべての思考をさせて、脳を切断することではありません。質問を続けます。AIエージェントが答えを与えたとき、その答えに疑問を持ち、意味を成し、データによって裏付けられていることを確認します。そうであれば、それはあなたの時間をかけてフォローアップの質問をする価値があることを示す励ましのサインです。
あなたがより多くの質問をするほど、より良い洞察を得ることができます。
ホールユシネーションが起こる理由
それは何らかの謎ではありません。AIはあなたに嘘を言おうとしていません。すべての大規模言語モデル(LLM)AIは、基本的に、確率に基づいて次の単語または数字を予測しています。
高レベルで何が起こっているかというと、LLMは、1つの単語ずつ、文や段落を繋げて、次に起こるべき単語を予測しています。彼らの訓練データの中にある他の数十億の例に基づいて。これらのLLMの祖先(Clippyを除く)は、テキストメッセージやコンピューターコードの自動補完プロンプト、自動人工言語翻訳ツール、他の確率的言語システムでした。強力なコンピューティングパワーと、インターネット規模のデータでの訓練により、これらのシステムは「賢くなり」、チャットで会話を続けることができるようになりました。世界はChatGPTの導入でそれを学びました。
AIの否定派は、それが「真の」知能ではなく、人間の知能が与えられたものを抽出し、再現するソフトウェアに過ぎないと指摘することがあります。データの要約を書かれた報告書に要求する場合、それは他のライターが類似のデータを要約する方法を模倣します。
それは、私にとっては、データが正しい場合、分析が有用である限り、学術的な議論のようです。
AIがデータを持っていない場合、どんなことが起こるでしょうか。彼らは空白を埋めます。時々それは面白いです。時々それは完全な混乱です。
AIエージェントを構築する場合、これは10倍のリスクです。エージェントは、実行可能な洞察を提供することを目的としていますが、途中でより多くの決定を下します。彼らは、マルチステップのタスクを実行し、ステップ1の結果がステップ2、3、4、5、…10…20に影響します。如果ステップ1の結果が不正確であれば、エラーは増幅し、ステップ20の出力はそれほど悪くなります。特に、エージェントは決定を下し、ステップをスキップできます。
うまくいけば、エージェントはビジネスに多くのことを成し遂げます。しかし、AI製品マネージャーとして、私たちは、より大きな報酬に伴うより大きなリスクを認識する必要があります。
私たちが行ったことは、問題を認識し、それに対処しました。私たちは、ただのロボットを作るのではなく、正しいデータで動作するようにしました。ここでは、私が正しく行ったと思ったことを紹介します:
- エージェントを正しい質問を尋ね、正しいデータを持っていることを確認するように構築します。エージェントの初期データ入力プロセスは、より決定論的で、より「創造的」でないようにします。你はエージェントが正しいデータを持っていないときに、次のステップに進むのではなく、停止するようにしたいと思います。
- エージェントのためのプレイブックを構造化します – それが毎回新しい計画を発明するのではなく、半構造化されたアプローチを持つようにします。構造とコンテキストは、データ収集と分析段階で非常に重要です。事実を正しく把握した後、要約を書くときに「創造的」に動作することを許可できますが、まず事実を正しく把握しましょう。
- 高品質のツールを構築してデータを抽出します。これは、単にAPIコールするのではなく、適切な量と種類のデータを収集するコード(まだ人々が行っていることです)を書くことを意味します。プロセスに品質チェックを組み込む時間を取ります。
- エージェントが仕事を示します。エージェントは、ユーザーがデータを確認し、さらに調査できる元のソースへのリンクを示すべきです。手品は許可されません!
- ガードレール: 何が間違う可能性があるかを考えて、絶対に許可できないエラーに対する保護を構築します。私たちの場合、それは、エージェントが市場を分析するように依頼された場合、Similarwebデータ(ウェブからランダムに抽出されたデータソースではなく)を持っていない場合、でっち上げることを避けることが不可欠なガードレールです。エージェントが答えることができない場合、それは、誤ったまたは誤解を招く答えを提供するよりも、はるかに良いことです。
私たちは、これらの原則を私たちの最近の3つの新しいエージェントのリリースに組み込み、さらに多くのエージェントをリリースする予定です。例えば、私たちのAI会議準備エージェントは、セールス担当者向けに、ターゲット会社の名前を尋ねるのではなく、会議の目的と誰が参加するかについての詳細を尋ね、より良い答えを提供するように準備します。会社データ、デジタルデータ、エグゼクティブプロファイルの豊富な情報を使用して、推奨事項を提供するので、でっち上げる必要はありません。
私たちのエージェントは完璧ですか? いいえ。誰もまだ完璧なAIを作成していません。世界で最大の企業でさえもです。ただし、問題に直面することは、それを無視するよりも、はるかに良いことです。
ホールユシネーションを減らしたいですか? あなたのAIに、高品質のデータの良い塊を与えます。
それがホールユシネーションを起こす場合、修正する必要があるのはAIではありません。修正する必要があるのは、あなたのアプローチです。強力な新しい機能を活用するために、正しく行う時間と労力を費やすことを怠っているからです。












