Connect with us

ワークプレイスの次のフロンティアは統治されたAIである

ソートリーダー

ワークプレイスの次のフロンティアは統治されたAIである

mm
A split-view comparison of an office desk showing the messy, chaotic reality of Shadow AI on one side and a clean, governed AI workspace on the other.

私たちは10年間、影のITと戦ってきた。認可されていないSaaSアプリ。無断で使用されているスプレッドシート。認可されていないDropboxアカウント。ITリーダーはこの問題に対処するためにコンプライアンス・プログラムを構築し、ほとんどの場合、それでも敗北した。Reco AIの2025年の影のAIレポートによると、平均的な企業内のSaaSアプリケーションの47%のみが正式に認可されており、平均的な組織は現在490のアプリケーションを管理している。

これが古い問題だった。新しい問題はそれよりも悪い。

影のAI問題は今回は異なる

従業員が認可されていないプロジェクト管理ツールにサインアップすると、被害は限定される。チームのタスクは間違った場所に保存される。ある程度のデータ漏洩が発生する。データ漏洩の種類はかなり予測可能である。

AIは異なる。従業員は現在、AIツールを使用して顧客向けのコミュニケーションを作成し、財務レポートを生成し、機密的な会議の要約を作成し、自動化されたワークフローを構築し、多くの場合、誰にも通知せずにこれらのタスクを実行している。Microsoftの2024年のワーク・トレンド・インデックスによると、78%のAIユーザーは仕事に自分のAIツールを持ち込んでいる。困難を抱えたり、悪意を持ったりしているわけではない。ツールは真正に有用であり、パフォーマンスを向上させる圧力に直面している。ただし、組織はプロセス、手順、ツールを提供するのが遅れている。

ここでの出力は問題である。AIツールが顧客契約を草案化したり、法的電話を要約したり、四半期の取締役会報告書を生成したりすると、リスクは「ツールが何を使用したか分からない」だけではない。データの取り扱い、精度、決定の根拠が完全に組織から見えていないということである。誰もプロンプトを確認しなかった。誰も結果を検証しなかった。誰もそれが起こったことさえ知らない。AIは非常に自信を持っているように見えるため、ほとんどのユーザーはソースを確認せずに結果を受け入れる。

KPMGの2025年の影のAI分析によると、仕事でAIを使用する従業員の44%が会社のポリシーおよびガイドラインに違反する方法でAIを使用している。これは周辺的な行動ではない。ほぼ半数の労働力である。

自律エージェントがこれをより困難にし(そしてより良くし)ている理由

ここで話は面白くなってくる。ChatGPTにテキストを貼り付ける従業員について話すのではない。自律エージェントの時代に入っている。自律システムは連続して実行され、複数のタスクを実行し、エンタープライズ・ツールに接続し、人間の介入なしで決定を下すことができる。

Deloitteの2025年のテクノロジー・トレンド・レポートでは、これを「シリコンベースのワークフォース」への移行と表現し、多くの初期のエージェント型AIの実装は、人間用に設計された既存のプロセスを自動化しようとして失敗していることを指摘している。

これは分岐点である。自律AIは2つの方向に進むことができる。

パス1: 影のITがさらに悪化する。従業員は個人アカウントを使用してエージェントを起動し、会社のITを使用し、個人APIキーを使用して会社のツールに接続し、チームの他のメンバーが見ることができない出力を生成する。エージェントは毎日のレポートを実行する。レポートは間違っている。誰もそれを数週間間気づかない。なぜなら、それが存在することさえ誰も知らないからである。これは仮想的な話題ではない。これは現在、AIの採用を個人の生産性のプレイとして扱う組織で起こっていることである。

パス2: 統治された自律性。同じエージェントが同じ毎日のレポートを実行するが、チームが何をしているか、どのデータにアクセスしているか、誰が設定したか、どのような出力を生成したかを確認できる環境の中で。エージェントは共有されており、シロである。出力は可視化される。権限はスコープされる。何かが間違ったとき、トレイルがある。

これらの2つのパスの違いは技術ではない。環境である。

統治されたAIが実際にどのように見えるか

ガバナンスは、ビルダーが嫌がる言葉である。通常、遅いことを意味する。承認が増える。プロセスが増える。作業を行う人とリスクを管理する人との間で摩擦が生じる。

しかし、統治されたAIは必ずしもそうである必要はない。私が見た最も優れた実装は、いくつかの特徴を共有している。

デフォルトで可視化される。AIによって生成されたすべての出力 — すべてのレポート、すべてのアラート、すべての草案 — は、チームに可視化される。誰かの個人チャット履歴に埋もれているわけではない。監視についてではない。共有されたコンテキストについてである。エージェントが毎週の競合分析を作成すると、チーム全員がそれを確認し、疑問を持ち、さらに開発できるはずである。

権限は、ブランケット・アクセスではなくスコープされる。エラー・ログを監視するエージェントは、CRMにアクセスする必要はない。ソーシャル・コンテンツを草案化するエージェントは、財務データにアクセスする必要はない。最小特権の原則は新しいものではない。ただし、AIシステムに適用されることは稀である。

トレイルが実際に存在する監査ログ。 McKinseyのエージェント型AIのセキュリティに関するプレイブックでは、自律エージェントは「新しい、複雑なリスクと脆弱性の配列を提示し、現在注目と行動を必要としている」と強調している。最も基本的なものの1つは、エージェントが何をしたか、どのデータにアクセスしたか、どのような決定を下したかをトレースできない場合、統治できない。

チーム・レベルの制御、ITレベルの制御のみではない。ガバナンス・フレームワークのほとんどが間違える部分は、AIの制御をすべてITまたはセキュリティに集中させ、影のAIを引き起こすボトルネックを生み出すことである。正しいことを行っている組織は、ITが設定したガードレールの中でチーム・レベルで制御を押し出している。マネージャーとチーム・リードは、チームが使用するエージェントを構成し、スコープし、監視することができる。

組織が正しいことを行っている場所

AIエージェントをうまく展開している会社は、最も洗練されたモデルを持っているのではない。最も明確な運用境界を持っているのである。

3つの分野で最も強い結果を確認している。

レポートと監視。エージェントがスケジュールされたレポートを実行し — 毎日の立ち上がり、毎週のメトリクス・サマリー、エラー・ログのダイジェスト — それらをチームのチャンネルに直接配信する。価値は自動化だけではない。一貫性がある。レポートは毎朝実行される。誰かがデータを取得することを忘れたとしてもである。チームに可視化されるため、エラーはより速く検出される。
コンテンツとコミュニケーションのワークフロー。出版ではなく、草案化。エージェントが内部更新、会議のサマリー、またはアウトバウンド・コンテンツの最初の草案を作成し — それらを人間のレビューのために提示する。ガバナンスの部分は、出力が顧客に送られる場合と内部のSlackチャンネルに送られる場合とで、品質のバーが異なるため、重要である。

分析とアラート。エージェントがダッシュボードを監視し、異常をフラグし、メトリクスが予想範囲外になったときにアラートを送信する。チームが毎週末に生産性の低下に苦しむ「誰かがこれを見ているべき」という問題を置き換える。

ほとんどの組織がまだ間違っていること

最大の間違いは、AIのガバナンスを政策の問題として扱うことではなく、インフラストラクチャの問題として扱うことである。

あなたはどれだけの受け入れ可能な使用ポリシーを書いても、従業員が認可された、使いやすい環境を持たない場合、AIを展開するためにルーティング・アラウンド・ポリシーを行う。従業員がルーティング・アラウンド・ポリシーを行うのは、人々の問題ではなく、設計上の問題である。

IDCの影のAI分析は、この点を明確にしている。ステルス・AIの生産性は、組織が利点を望みながらリスクを恐れているために、「エンタープライズAIの採用を絞め殺している」という。結果は、不作為である。最悪の結果である。なぜなら、制御されていない採用を保証するからである。

2番目の間違いは、ガバナンスと速度を反対として扱うことである。そうではない。最もガバナンスされたAI環境は、チームがすでに存在する作業を再構築したり、見ることができないエージェントをデバッグしたり、誰かが会社を去り、個人アカウントが一緒に去ったために壊れたワークフローを再構築したりする時間を費やしていないため、最も速いものである。

フロンティアはモデルではなく、環境である

業界の注目は、モデルの能力に集中している。より大きなコンテキスト・ウィンドウ。より優れた推論。マルチモーダル入力。これらは重要である。ただし、仕事をしようとしているほとんどのチームにとって、ボトルネックはモデルではない。環境である。

チームは何が起こっているかを見ることができるか。チームはアクセスするものを制御できるか。チームは生成されたものを共有できるか。チームは正しいデータと制約で動作していることを信頼できるか。

これらはインフラストラクチャーの質問である。モデルに関する質問ではない。これらは、AIから実際の、持続的な価値を得る組織と、単に別の層の影のITを追加する組織を区別することになる。

フロンティアは、より賢いモデルを構築することではない。賢いモデルが実際に信頼して動作する環境を構築することである。

マルセル・フォラロンは、CoChatの共同創設者であり、チームのための管理されたAIワークスペースを構築しています。彼は過去10年間、チームコラボレーション、自動化、エンタープライズ管理の交差点で働いてきました。