Connect with us

Mark Nicholson、Deloitte米国サイバー近代化リーダー – インタビューシリーズ:再訪対談

インタビュー

Mark Nicholson、Deloitte米国サイバー近代化リーダー – インタビューシリーズ:再訪対談

mm

Mark Nicholsonは、Deloitteの米国サイバー近代化リーダーであり、サイバーセキュリティ、人工知能、企業リスクの交差点において20年以上の経験を持つDeloitteのプリンシパルです。彼は、サイバーAIイニシアチブとDeloitteのサイバー実務における商業戦略を率い、大規模組織がセキュリティフレームワークを近代化し、サイバー投資を進化するリスク環境に適合させることを支援しています。Deloitte以前には、脅威インテリジェンスと悪意のあるイベント監視に焦点を当てた情報セキュリティコンサルティング会社であるVigilant, Inc.を共同設立し、最高執行責任者(COO)を務めました。複数のテクノロジー企業における営業および事業開発の初期キャリアは、サイバーセキュリティの技術的および商業的側面の両方において強固な基盤を提供しました。

Deloitteは、世界最大級のプロフェッショナルサービスファームの一つであり、ほぼすべての業界にわたる組織に監査、コンサルティング、税務、アドバイザリーサービスを提供しています。そのサイバーセキュリティ実務は、企業がますます複雑化する脅威環境をナビゲートするとともに、人工知能などのテクノロジーを通じてデジタルトランスフォーメーションを可能にすることを重点としています。同社は、サイバー戦略、レジリエンス、リスク管理、企業セキュリティにわたるサービスを提供し、サイバーセキュリティを保護機能であると同時に、イノベーションと成長の戦略的推進要因として位置付けています。

これは、2025年に公開された以前のインタビューに続くものです。

あなたは、Vigilantの共同設立や初期のセキュリティ情報イベント管理(SIEM)および脅威インテリジェンス機能の市場投入を含む、現代的な脅威監視の初期の頃からサイバーセキュリティに関わってきました。それらの初期の監視システムから今日のAI駆動型サイバー防御プラットフォームへの進化は、組織の脅威検知と対応の方法をどのように変えましたか?

SIEMの初期に監視プラットフォームを構築し始めた頃、中核的な課題はデータを一箇所に集め、それを理解することでした。アナリストが毎朝ファイアウォールログを印刷し、手動で確認して異常を見つけようとしていた時代を覚えています。SIEMが成熟しても、スケールの問題がありました。人間の速度は、検出される膨大な数のイベントには敵いませんでした。自動化が使用されていたにもかかわらず、サイバー防御側には依然としてデータ相関と分析の問題があり、監視の失敗に対応して新しいルールを起草するために常に労力を費やしていました。

期待の一つは、AIがその力学を根本的に変えることです。レベル1のセキュリティ運用を自動化するエージェント機能を展開することを超えて、AIは、監視アルゴリズムの動的な機械調整を活用することで、検知と対応を「事後」から「発生中」に近づけることを約束します。場合によっては、サイバー組織はAIに修復アクションを開始させることにも慣れていくでしょう。

しかし、難しい部分はなくなるのではなく、移行します。システムがより自律的かつ複雑になるにつれて、信頼性と可観測性が戦場となります:システムは何をしているのか、なぜそれをしているのか、そして操作されていないことをどうやって知るのか?AIによる機会は膨大ですが、環境が機械速度で動作する場合には、その賭け金も高くなります。

あなたは、AIが敵対者に偵察の自動化、エクスプロイトの生成、攻撃サイクルの加速を可能にしていると指摘しています。実際的な観点から、AIは脆弱性の発見から悪用までの時間をどれだけ圧縮しましたか?

歴史的に、脆弱性の発見と悪用の間にはしばしば時間的余裕がありました。確かに緊急性はありましたが、一般的には、ゼロデイ攻撃に遭わない限り、攻撃者が大規模にエクスプロイトを展開する前に、脅威を理解し、パッチを適用し、緩和策を講じる時間がありました。AIはその余裕をほぼ消し去りました。

敵対者は偵察を自動化し、継続的に露出をスキャンし、AI対応ツールを使用してエクスプロイト開発とターゲティングの一部を高速化できます。多くの場合、かつては数週間かかっていたことが、今では数時間に圧縮され、高度に自動化されたシナリオでは、ほとんどのセキュリティプログラムが対応できるよりも速くなり得ます。

結論は単純です:セキュリティチームは、ペースを維持したいのであれば、防御側での自動化とAI、そして強力なコントロールを組み合わせる必要があります。

セキュリティチームは、「人間がループ内」から「人間がループ上」の監視モデルへと移行しつつあります。その移行は、現代的なセキュリティオペレーションセンター(SOC)内で運用的にはどのように見え、AIがより自律的なタスクを引き受けるにつれて、組織はアナリストの役割をどのように再考すべきですか?

従来のSOCでは、アナリストがすべての意思決定ポイントの中心にいます。アラートが入ると、アナリストがそれらをトリアージし、調査し、どのようなアクションを取るべきかを判断します。そのアプローチは、アラートの量と攻撃のペースが管理可能であった時代には機能しました。しかし、今日の環境では、活動の規模が単純に大きすぎて、人間があらゆる決定の門番として行動することはできません。

人間がループ上への移行は、AIシステムがアナリストが以前に扱っていたアラートのトリアージ、コンテキストの収集、データの相関付け、特定の修復アクションの実行などの日常的なタスクの多くを実行できることを意味します。人間の役割は、手動での実行ではなく、監督と検証のものになります。

運用的には、それはアナリストの時間を「アラート処理」から、脅威ハンティング、検知エンジニアリング、敵対者シミュレーション、防御アーキテクチャの改善などのより付加価値の高い作業へと移行させます。人間は依然として不可欠ですが、その役割は、セキュリティデータの主要なプロセッサとして行動することではなく、監督、判断、戦略に向けて進化します。

「設計による安全なAI(Secure AI by Design)」について多く耳にします。あなたの観点から、なぜその概念はモデルの安全性を超えて、アイデンティティシステム、権限アーキテクチャ、オーケストレーションレイヤーにまで拡張する必要があるのですか?

安全なAIに関する多くの議論は、トレーニングデータの保護、モデル汚染の防止、プロンプトインジェクション攻撃への防御など、モデル自体に重点を置いています。それらは確かに現実の問題ですが、リスクの一部に過ぎません。

実際には、AIシステムははるかに大規模なデジタルエコシステムの一部として動作します。それらはデータにアクセスし、APIと対話し、ワークフローをトリガーし、ますますある程度の自律性を持って行動できるエージェントを通じて動作します。

それが起こるとき、アイデンティティと権限がコントロールプレーンになります。AIエージェントは、事実上、企業内の新しいデジタルアイデンティティです。 それらのアイデンティティが適切に管理されない場合、重大なリスクをもたらす可能性があります。

したがって、設計による安全なAIは、アイデンティティガバナンス、アクセス制御、オーケストレーションレイヤー、およびそれらのエージェントが何をしているかを追跡する監視システムにまで拡張する必要があります。組織は、AIエージェントを、定義された権限、監査、監督を持つ人間のユーザーと同様に扱う必要があります。そうしないと、攻撃対象領域は急速に拡大します。

多くの企業は、人間の速度のために設計されたレガシーセキュリティワークフローの上にAIツールを重ねています。サイバー防御においてAIを実際に活用するために、組織が行う必要がある最大のアーキテクチャ上の変更は何ですか?

一般的なパターンは、人間主導の運用のために設計されたレガシープロセスとワークフローにAIをボルトオンすることです。これは悪い最初のアプローチではありません。特に、コンピュータビジョンが現実のものとなった今ではそうです。例えば、Deloitteは、既存の目的特化型ソフトウェアソリューション(廃止することが難しいもの)を廃棄することなく、アイデンティティガバナンスと管理プロセスにおいて人間に取って代わるように訓練できるエージェントを作成しました。これは劇的なコスト削減をもたらすことができます。

しかし、将来の利点は、企業がセキュリティワークフローをエンドツーエンドで再考し始める可能性が高いことです:セキュリティツールが高品質で構造化されたテレメトリに確実にアクセスできるようにデータ基盤を近代化する。検知、対応、アイデンティティ機能が連携したシステムとして動作するようにオーケストレーションを構築し、断絶したツールにしない。

アイデンティティは、最も重要なコントロールの一つとして存続します。より多くの自動化とAIエージェントが導入されるにつれて、非人間アイデンティティの数が大幅に増加します。それらのアイデンティティを効果的に管理することは、コントロールを維持するために不可欠になります。

AIネイティブなセキュリティは、最終的には、より優れたデータ、より優れたオーケストレーション、そして人間と機械の両方のアクターを考慮したガバナンスの組み合わせです。

AIシステムがより自律的になるにつれて、攻撃対象領域はエージェントオーケストレーション、APIチェーン、自動化された意思決定パイプラインなどの領域に拡大します。これらの新興する対象領域の中で、最も懸念されるのはどれですか?

もし一つだけ即座に注意を払うべき領域を選ぶとすれば、それはエージェント駆動型システム内のアイデンティティとデータアクセス権限です。

組織がより多くのエージェント型AIを導入するにつれて、企業内で動作する自律的なアクターの増加する集団を作り出しています。それらのエージェントは、非常に強力なデータ、API、ワークフローにアクセスできる可能性があり、権限が厳密に設計、監視、監査されていない場合、攻撃者にとって魅力的な経路となります。すべてのエージェントを新しい従業員のように扱うことが重要です:名前を付け、範囲を定め、監視し、必要に応じて素早く切断できるようにします。

APIチェーンと自動化された意思決定パイプラインもリスクをもたらしますが、アイデンティティガバナンスはしばしば基礎的なコントロールです。エージェントが誰であるか、何に触れることができるか、何をしたかを明確に答えられないのであれば、それを本当にコントロールしているとは言えません。

取締役会の観点から、経営幹部や取締役は現在、AI駆動型のサイバーリスクについてどのように考えており、技術的現実と取締役会レベルの理解の間で最大のギャップはどこにあるとお考えですか?

取締役会は、AIが膨大な機会をもたらす一方で、重要なリスクをもたらす可能性もあることをますます認識しています。ほとんどの取締役は、AIがビジネストランスフォーメーションを形作ることを理解しており、ガバナンス、セキュリティ、レジリエンスについて質問し始めています。

ギャップが現れるのは、しばしば速度と複雑さにおいてです。多くの取締役会の議論は依然として従来のサイバーフレームワークに依存しがちです(それらは重要ですが)、AI駆動型の脅威がどれだけ速く進化し拡大するかを必ずしも反映していません。

もう一つの断絶は、「私たちのAIは安全ですか?」という質問が単一の質問のように聞こえるが、その答えはデータガバナンス、モデルの完全性、アイデンティティ管理、複数システムにわたるオーケストレーションにまたがっていることです。ギャップを埋めつつある取締役会は、それらの動く部分を可視化しテスト可能にするコントロールベースの報告を推進し、監督がテクノロジーに追いつくように取締役の理解度を高めるために時間を投資しています。

AIは戦場の両側でますます使用されています。私たちは永続的なAI対AIのサイバーセキュリティ軍拡競争に入っているのでしょうか?もしそうなら、防御側が持つ、攻撃側が再現するのに苦労する可能性のある利点は何ですか?

私たちは明らかに、攻撃側と防御側の両方によってAIが使用されている時代にいます。敵対者はすでに、偵察の加速、脆弱性の特定、攻撃ライフサイクルの一部の自動化にAIを適用しています。しかし、防御側は、それらを使用することを選択すれば、依然として真の利点を持っています。

防御側は自らの環境を可視化でき、内部テレメトリにアクセスでき、攻撃者がナビゲートしなければならない階層化されたアーキテクチャを構築する能力を持っています。AIは、防御側がネットワーク、エンドポイント、アイデンティティにわたる膨大な量のデータを分析するのを助け、異常な行動をはるかに早期に検知する可能性を与えます。

問題は導入です。防御側が手動ワークフローに留まり続け、攻撃側が自動化するならば、その非対称性は残酷なものになります。軍拡競争は現実であり、勝者はAIを強力なガバナンスとともに展開する側であり、パイロットのみを行う側ではありません。

大企業への助言業務において、組織がサイバーセキュリティ戦略にAIを統合しようとする際に最もよくある間違いは何ですか?

私たちが最もよく目にする間違いの一つは、AIをアーキテクチャのシフトではなく、スタンドアロンのツールとして扱うことです。チームは、影響を持続させるために必要なデータ基盤、ガバナンスモデル、運用プロセスをアップグレードすることなく、孤立した実験を実行し、結果が頭打ちになります。

もう一つの間違いは、新しいリスク(新しいアイデンティティ、新しいデータフロー、攻撃対象領域を拡大する自動化された意思決定経路)を完全に考慮せずにAI機能を展開することです。それらが適切なコントロールなしにボルトオンされた場合、AIはレジリエンスではなく脆弱性を追加する可能性があります。

最後に、多くの組織は、従業員の関与の重要性を過小評価しています。毎日セキュリティ運用を実行する実務者は、摩擦がどこにあるか、「良い」状態がどのようなものかを知っています。最も強力な変革は、テクノロジーが彼らの判断を増幅するように、これらのチームを早期に関与させます。

今後3年から5年先を見据えて、AIネイティブなセキュリティオペレーションセンターは、今日のSOC環境と比べてどのように見えるでしょうか?

そうですね、おそらく多くの点で予測できないほど大きく異なる見た目になるでしょう。将来のSOCは、人間とデジタルのハイブリッドな労働力として運営される可能性が高いです。AIシステムは、データ処理、相関付け、初期対応活動の多くを処理します。エージェントシステムは、脆弱性管理、アイデンティティガバナンス、インシデント

//www.futurist.ai">未来学者として、彼はこれらの革新が私たちの世界をどのように形作るかを探求することに専念しています。さらに、彼は未来を再定義し、産業全体を変革する最先端技術への投資に焦点を当てたプラットフォーム、Securities.ioの創設者でもあります。