ソートリーダー
企業の実際の運用に関する知識がどこにあるのか

昨年、S&P Global 報告によると、企業のAIイニシアチブをほとんど放棄する企業の割合は、17%から42%に倍増した。以前、Gartner 発表した予測によると、2027年末までに40%のAgentic AIプロジェクトが中止される予定である。
McKinsey & Companyによると、ほぼ半数の企業がAIエージェントを使用している。しかし、実際に運用されている企業はどの程度か。約10%である。
業界では、モデル・ホールシネーション、ガバナンスの欠如、高いGPUコスト、スペシャリストの不足などが原因と説明される。しかし、知識管理システムとAIエージェントを3年間使用してきた私が見る限り、企業がエージェントに不完全なデータを渡していることが問題の根本にある。
教育科学博士として、私はこれを知識転送の問題と見なす。人間が意思決定のプロセスを説明できない場合、その論理は新しい従業員、そしてAIエージェントに転送できない。なぜこれが起こるのか、そして何ができるのかを見てみよう。
企業の実際の運用に関する知識がどこにあるのか
大きな企業に、従業員の知識がどこにあるか聞くと、Confluence、SharePoint、LMSプラットフォーム、FAQボット、Slackアーカイブなどの長いリストが返ってくる。RAGシステムがこれらのシステムを使用して必要な情報を取得できるように思える。しかし、1つの重要な要素が欠けている。従業員の頭の中にある知識。誰も書き留めたことがない知識。
これはなぜ問題なのか?
AIエージェントがワークフローの一部を担うには、コンテキストを理解し、行動を選択し、タスクを完了するために、知識ベースへのアクセスだけでなく、経験豊富なスペシャリストの意思決定ロジックも必要である。
新しいサポートエージェントがリクエストを受け取ったと想像してみよう。顧客はサービスを支払ったが、アクセスが有効になっていないと主張する。スクリプトには標準的なステップが記載されており、顧客に待つように求めることで終了する。しかし、エージェントは状況が異常であることに気付く。顧客はすでに2回サポートに連絡しており、システムには過去1時間以内に同様のケースが複数ある。彼らはより経験豊富な同僚に連絡し、同僚はこのような状況を見たことがあり、問題はおそらく支払いゲートウェイ、銀行、および内部アクティベーション・システムの交差点での故障であるため、ケースを別の部門にエスカレートする必要があると説明する。
このロジックはAIエージェントにとって不可視である。スクリプト、チケットの履歴、支払い状況へのアクセスが可能かもしれませんが、経験豊富なオペレータがどの信号を決定的なものとみなすかを知ることはできない。専門家が故意にこの知識を隠しているわけではない。彼らは単にそれを形式化したり、ステップに分解したりすることができない。どのオプションが除外されたか、どのアクションが選択されたか、標準シナリオが適用されないことが明らかになった時点など、認知科学者はこの現象を暗黙の知識と呼ぶ。つまり、所有者自身が完全に認識していない暗黙の知識である。
これが、ボトルネックがドキュメントへのアクセス段階ではなく、専門家の経験をAIエージェントのトレーニングに適した形式に変換する段階で発生する理由である。
どうすればよいのか
AIエージェントを効果的に動作させるには、LLMを企業の知識ベースに接続するだけで十分ではない。成功した決定は、暗黙の知識に依存することが多いからだ。まず、構造化された意思決定基準を含む知識レイヤーを作成する必要がある。
知識管理では、このプロセスは外部化と呼ばれる。つまり、暗黙の知識を明示的知識に変換することである。企業は、専門家が何をしているかだけでなく、どのように考えているかを理解する必要がある。これは、トップエキスパートとの深いインタビューを通じて行われる。インタビューには、質問の右を尋ねることができるメソドロジスト、知識エンジニア、または教育設計専門家が同席する必要がある。彼らのタスクは、専門家が何を言ったかを書き留めることではなく、選択肢間の基準を再構築し、エッジケースを分解し、専門家がすでに自動的に処理している典型的なミスを浮き彫りにすることである。
ここで、AIが大いに役立つ。インタビューのトランスクリプション、類似のケースのグループ化、専門家の説明をドラフトシナリオに変換し、検証のためのシナリオを生成する。ただし、最終的な構造は専門家によってレビューおよび承認される必要がある。
結果として、動作する知識コーパスが得られる。これは、同時に2つの方向で使用できる。新しい従業員をトレーニングするために、またAIエージェントを構成するために。両方のシナリオは、同じ基盤に依存している。トップスペシャリストからの構造化された経験である。
代替案は、Confluence上のRAGが論理を再構築するという仮定を続けることである。実践では、これはほとんど機能しない。システムは関連するドキュメントを取得するかもしれませんが、コンテキストと経験に基づいて正しいアクションを選択する方法を学習することはできない。
エージェントが動作する準備ができていることを確認する方法
専門家の知識をシナリオに変換し、エージェントを構成した。ただし、エージェントのあり得る回答と実際の運用パフォーマンスの間にはギャップがあり、このギャップは検証中にのみ明らかになる。この段階では、必要な知識をすべて取得したかどうかを判断することが重要である。
実用的アプローチは、シナリオベースのテストである。エージェントに、専門家の日常業務からの実際のケースを与える。顧客が請求を争ったり、異常なメールが届いたり、基本的なスクリプトに合わないリクエストが届いたりする。結果は、別のLLMによって評価されるのではなく、知識コーパスを構築したのと同じ専門家によって評価されるべきである。如果エージェントが経験豊富なスペシャリストと異なるパスをたどる場合、それは必ずしもモデルが弱いことを意味するわけではない。より頻繁に、重要なルール、例外、または例が欠けていることを示唆する。そうした場合、プロセスは最初からやり直される。メソドロジストは専門家とロジックを明確にし、知識コーパスを更新し、指示を改良し、テストを繰り返す。
このサイクルは、オプションのステップではなく、エージェントが「潜在力を示す」ものと「実際に作業する」ものを区別するステージである。これは、印象的なデモを生み出すものではなく、専門家の関与を必要とする、ゆっくりで印象的なプロセスである。ただし、体系的にこのプロセスを経ることで、実際にスペシャリストのルーチン・ワークロードを軽減するエージェントを取得することができる。そうでない場合、6か月以内に、Gartnerが予測した40%のプロジェクトが中止される統計に加わることになる。
Agentic AIは、技術のせいで失敗するのではない。現代のモデルはすでに複雑なタスクを実行する能力がある。失敗するのは、企業が「不完全な知識」をAIに「与える」からである。2024〜2025年では、これはまだ実験段階によるものと説明できた。しかし、2026年では、このミスは高いコストを伴うものとなる。












