ソートリーダー
私が人間の専門家のように決定を下すAIシステムに知識を転送する方法

マイクロソフトを退職し、企業のAI導入に取り組み続けていると、多くのAIシステムが真正の人間の判断で決定を下すことができないことに気づきました。確かに、文章を書き、要約し、人間の決定のように聞こえる驚くほど流暢な文章を生成することができます。しかし、これらのシステムを実際の運用環境に導入すると、トレードオフ、不確実性、不完全な指示、実際の結果などで苦労することが多いです。これは、MIT Project NANDAのデータと一致しています。データによると、60%の組織がAIツールを評価していますが、20%のみがパイロット段階に達し、5%のみが本稼働に達しています。 つまり、業界は実際のワークフロー内で機能するシステムを構築するのに苦労しています。
企業の環境では、特にサプライチェーン、製造、運用などの分野で、答えを得ることは難しくありません。信頼できる答え、重要な変数、間違った場合にどのようなことが起こるかを知ることが難しいのです。私の目に、これは専門知識と判断の問題です。
明確に述べると、AIは出力の向上に驚くべき進歩を遂げてきました。しかし、出力の向上は決定の向上とは異なります。これらは2つの異なるマイルストーンであり、業界はこれらを交換可能なものとして扱ってきました。
専門知識と判断の欠如が、私が人間の専門家が複雑な決定を下す方法を教えるAIを構築することに興味を持つ理由です。AIはタスクの自動化のみでなく、人間の判断を安全にAIに転送することについても考えるべきです。
大規模言語モデル(LLM)は決定者のように話すが、決定者ではない
大規模言語モデルは確かに有用ですが、デフォルトでは決定システムではありません。言語を使用した予測システムです。言語は説得力があるため、これが問題の一部です。システムが自分自身を流暢に説明できる場合、容易に理解度を過大評価します。ビジネス上の質問をすると、トレードオフ、注意事項、まとまりのある要約を付けて答えますが、実際にはそれほど賢くありません。論理的に話すことと運用上の能力は異なります。これが企業のAIが壊れるところです。モデルは、決定がどのように良いかを教えることができますが、プレッシャー、時間の経過、または状況下で決定が良いかを理解することはできません。これが多くの組織が実験を超えて進むのに苦労する理由の一つです。 Gartnerによると、少なくとも50%の生成AIプロジェクトは、実際の運用上の影響をもたらす前に、概念実証の後で放棄されています。これは、値やリスクの管理が不明確であることが原因です。
情報と専門知識は異なる
AIで陥りやすい落とし穴の一つは、システムが十分な情報を持っている場合、専門家のように動作することができるというものです。妥当な考えのように聞こえますが、日常生活で考えてみると、あることについての情報を増やすと、自動的に専門家になるわけではありません。航空の手順書をすべて読んでも、飛行機を着陸させる準備はできません。サプライチェーンのベストプラクティスをすべて暗記しても、3つのことが同時に間違ったときに動揺してしまいます。
続けることができますが、ポイントは、情報が専門知識に等しいわけではないということです。専門知識は経験から来ます。具体的には、答えが明らかでない混沌とした状況に繰り返し触れることから来ます。
毎日、今日のAIシステムの大部分は静的な例でトレーニングされています。これは予測を行うには役立ちますが、決定の一部のみです。企業はデータに欠けているわけではありませんが、練習のための構造化された環境が必要です。つまり、システムが:
- 現実的なシナリオに遭遇する
- 選択を行う
- 何が起こるかを見る
- フィードバックを受ける
- 時間の経過とともに改善する
AIは予測アルゴリズムを使用してトレーニングできますが、このアプローチには限界があります。必要なのは、人間の監視のあるシミュレートされた環境でAIをトレーニングすることです。私はこれをマシンテーチングと呼びます。これは、複雑な決定をシナリオとスキルに分解し、人間の専門家がAIをシミュレーションを通じて教えるためのガイドを提供します。結果として得られるフィードバックとトライアンドエラーは、エージェントが現実世界の自律性を直接学習し、行動できるようにします。
AIをモノリシックなものとして扱うのをやめましょう
見られる別の間違いは、1つの大きなモデルが何でもできるはずだという仮定です。バスケットボールのチームは1人で構成されていません。工場は1人で運営されていません。複雑なシステムは、異なるコンポーネントが異なる仕事を行い、構造がそれらを保持しているため機能します。
AIも同様に構築する必要があります。私は、企業の意思決定の長期的な将来は、会社の中央に巨大なモデルが存在し、普遍的に有能であるというものではないと思います。むしろ、専門化されたエージェントのチームのようです。
1つのエージェントはデータの取得に専門化しているかもしれません。別のエージェントはシナリオの評価に優れています。別のエージェントは計画を担当します。1つはコンプライアンスをチェックしたり、矛盾を捉えたりします。別のエージェントは、昇格するかどうか、または進むことができないほど信頼性が低い場合を決定するような、より上位のエージェントのように動作します。チームアーキテクチャは、実際の組織がどのように機能するか、また市場の趨勢と一致しているため、より多くの意味を持ちます。 McKinseyの調査によると、組織はAIを中心にワークフローと運用構造を再設計することで、最も価値を得ています。
すべての決定は同じ方法で行われるわけではありません。多くの場合、同じモデル、同じデータ、同じ推論タイプがすべての決定を処理できるという仮定をします。実際には、異なる決定には異なるメカニズムが必要です。
決定が実際に起こる4つの方法
私の経験によると、多くの決定はいくつかのカテゴリに分類されます:
- 制御システム(ルールと式): 決定は、定義された入力に事前に定義された方程式またはルールを適用することによって行われます。Xが起こった場合、Yを行います。
- 検索と最適化: 決定は、多くの可能なオプションを評価し、定義された目的を基に最適なものを選択することによって行われます。
- 強化学習(試行錯誤): 決定は、行動をとり、結果を観察し、報酬または罰則に基づいて調整することによって時間の経過とともに学習されます。
- 練習と経験(人間のような学習): 決定は、繰り返しの露出、ガイドされたフィードバック、蓄積された判断を通じて現実世界のシナリオで形成されます。
多くの企業のAIは最初の2つのカテゴリでうまく機能します。3つ目と4つ目のカテゴリは、人間のような判断が存在するため、AIにとってより挑戦的なものです。
構造のない自律性はリスク
人々が自律的なAIについて話すとき、会話は通常2つの極端な見方に分かれます。1つの見方は、これらのシステムが基本的に魔法で何でもできるというものです。別の見方は、これらのシステムが何も信頼できないというものです。
私はどちらの見方も役に立たないと思います。構造の中での自律性に焦点を当てるべきです。監視、エスカレーションロジック、境界、または説明責任のない自律性は、リスクの主な原因です。リスクに関する懸念は、National Institute of Standards and TechnologyのAIリスク管理フレームワークなどの取り組みによって形作られる会話にも現れています。これは、組織が監視、説明責任、運用上の信頼性に関する質問をどれほど深刻に受け止めているかを反映しています。
企業のAIの将来は、チームのエージェントにあります。AIから最も価値を得る組織は、最も多くの単語を自動化する組織ではありません。実際の専門知識をシステムに転送し、環境が混沌としたときに機能するシステムを構築する組織です。私の見解では、これが印象的なAIと真正に有用なAIの違いです。真正に有用なAIは実際のROIを生み出します。












