インタビュー
Craig Riddell, WallarmのグローバルフィールドCISO – インタビューシリーズ

Craig Riddell、WallarmのグローバルフィールドCISOは、APIやAIドリブンのシステムに関連するリスクを管理することに焦点を当てたシニアサイバーセキュリティエグゼクティブです。彼の現在の役割では、CISO、CIO、エンジニアリングリーダーと密接に協力して、リアルワールドの攻撃パターンや悪用シナリオを実行可能なセキュリティ戦略に変換しています。強調点は、観測可能性、つまりAPIやAIシステムがユーザー、應用、統合全体で本稼働環境でどのように動作するかを理解することです。彼のキャリアは、Netwrix、Kron、HPを含む組織でのアイデンティティおよびアクセス管理、ゼロトラストアーキテクチャ、エンタープライズセキュリティのリーダーシップロールを含み、そこで彼は大規模なIAM変換を推進し、セキュリティフレームワークを現代化しました。Riddellの専門知識は、ビジネスロジック攻撃、API悪用、AIシステムドリフト、不正行為などの新興脅威に焦点を当てており、ハイレベルセキュリティ戦略と運用実行の間のギャップを埋めることに一貫して焦点を当てています。
Wallarmは、モダンなクラウド環境でのAPI、應用、AIドリブンのシステムの保護を専門とするサイバーセキュリティ企業です。そのプラットフォームは、API悪用、ビジネスロジック攻撃、自動化されたエクスプロイトなどの脅威に対する継続的な検出、テスト、リアルタイム保護を提供し、システムが複雑なインフラストラクチャ全体でどのように動作するかについての深い可視性を提供します。マルチクラウドおよびクラウドネイティブアーキテクチャのために設計されたWallarmは、既存のDevOpsおよびセキュリティワークフローに統合し、組織が事実上ではなく攻撃が発生する前にそれらを検出してブロックできるようにします。APIインベントリ、AIドリブンの脅威検出、自動応答機能を組み合わせて、APIやAIシステムがモダンなデジタル企業の主な攻撃面になったという現実に取り組んでいます。
あなたはキャリアをシステムやインフラストラクチャと直接関わって始め、アイデンティティ、セキュリティ、API、AIセキュリティに焦点を当てたリーダーシップロールに移りました。周辺からAPIやマシンドリブンのシステムへの実際のリスクが移動したと結論付けるために、あなたの旅で何が重要でしたか?
私のキャリアの初期には、エッジの保護に焦点が当てられていました。ファイアウォール、セグメンテーション、インフラストラクチャの強化。システムがより静的で、信頼境界が簡単に定義できる場合には、そのモデルは機能しました。
何が変わったのかは、應用がどのように構築され、システムがどのように相互作用するかです。APIはすべての結びつきの組織となり、AIはそれをさらに加速しました。現在、システムは決定を下し、他のシステムを呼び出し、人間がループに含まれないスケールと速度でアクションを実行しています。
その時点で、周辺はより関連性がなくなります。実際のリスクは、決定が下され、アクションが実行される場所、つまりAPIやマシンドリブンのワークフロー内に移動します。
あなたがそこで可視性やコントロールを持っていない場合、あなたは完全に見ることができない動作を信頼しています。那はビジネスリスクが現れる場所です。財務への露出、予期せぬ結果、運用の混乱などです。
あなたはサイバーハンドシェイクが壊れていると説明しています。つまり、システムがどのように信頼を確立し、APIや自動化されたプロセスの複雑なチェーン全体でアクションを交換するかです。現代の企業環境では、その壊れはどのように見えますか?
ほとんどの環境では、システムはアイデンティティと認証に基づいて相互に信頼を築いています。トークンは有効で、リクエストは適切に形成されており、インタラクションは許可されています。
問題は、有効であることが安全であることを意味するという前提に基づいていることです。那はもはや真実ではありません。
私たちはアイデンティティを認証しますが、意図を検証しません。アクセスを検証しますが、チェーン全体で動作を検証しません。
サービスは別のサービスを呼び出すことが承認されており、それが複数のAPIを介してダウンストリームのアクションをトリガーします。各ステップは分離して見ると妥当ですが、フルチェーンを見ると、意図しない動作またはロジックの悪用が見られます。
AIドリブンの環境では、それが増幅されます。エージェントは人間のレビューなしでアクションを連鎖させ、ワークフローを実行できます。
ハンドシェイクはまだ発生しますが、誰もコンテキストで動作が意味を成すかどうかを尋ねません。信頼は確立されますが、継続的に検証されません。
なぜAIおよびAPIリスクは組織の境界の間で頻繁に発生するのでしょうか?それが明確に所有されるのではなく?
システムは組織が構造化されている方法と一致していないからです。
DevOpsはデリバリーを所有します。セキュリティはポリシーを所有します。ビジネスチームは成果を所有します。データチームはモデルを所有します。各グループはピースを所有していますが、システムが本稼働環境で動作する方法全体を所有していません。
APIはビジネスロジックをシステム全体で実行します。AIはそれの上に非決定的な意思決定を導入します。共に、すべての境界を超えてカットします。
それらは1つのチームによって構築され、別のチームによってセキュリティが確保され、3番目のチームによって消費され、すべてのチーム全体で一貫した監視が行われます。
これによって生じるギャップは、チームの失敗ではありません。それは、現代のシステムが実際にどのように動作するかを反映するために、運用モデルの失敗です。
あなたの経験では、どのチームが通常AIリスクを所有していると考えられていますか?また、セキュリティ、DevOps、ビジネスユニットの間で最大の盲点はどこにありますか?
セキュリティチームは、ガバナンスとコンプライアンスの観点からAIリスクを所有していると考えられています。DevOpsはデプロイと信頼性を所有しています。ビジネスユニットは成果に焦点を当てています。
盲点はそれらの領域の間で発生します。
セキュリティは何が起こるべきかを定義します。DevOpsはシステムが実行されることを保証します。ビジネスは結果に焦点を当てています。しかし、ほとんどのチームは、システムが実際に何をしているかをリアルタイムで見ることができません。
そのギャップはリスクが存在する場所です。特に、動作が技術的には有効ですが、コンテキスト的に間違っている場合にです。
多くのモダンな攻撃は、明らかな侵入ではなく、有効で認証された動作として現れます。組織はこの新しい現実で検出をどのように再考する必要がありますか?
私たちは「悪い」リクエストの特定を超えて進む必要があります。
多くの場合、リクエストは有効です。資格情報は正当です。APIコールは予想どおりです。予想外なのは、アクションのシーケンス、ボリューム、または結果です。
検出には、行動やコンテキストを理解する必要があります。単一のリクエストをブロックすることよりも、システムが時間の経過とともにどのように相互作用するかを理解する必要があります。
実際に大規模な環境で機能するアプローチは、パターンマッチングを超えています。リクエストを構造的に分解し、各インタラクションを行動トークンとして扱い、既知の悪いパターンにマッチするのではなく、行動がどのように進化し、どこで逸脱するかを理解します。
これにより、表面ではすべてが有効に見えても、行動がどのように進化し、どこで逸脱するかを理解できます。
静的ルールやシグネチャに頼ると、重要なもののほとんどを見逃します。
あなたはリアルワールドの動作に対する観測可能性の重要性を強調しています。APIおよびAIシステムの本稼働環境での有意義な観測可能性とは何ですか?
有意義な観測可能性は、ログやメトリックだけではありません。それは、コンテキストで動作を理解することです。
APIの場合、それはフルリクエストとレスポンスの可視性、エンドポイントの使用方法、インタラクションが時間の経過とともにどのように進化するかを理解することを意味します。
AIシステムの場合、それは入力、決定、結果のアクションを理解することを意味します。
最も重要なのは、それらをシステム全体でフルワークフローに接続することです。分離されたイベントではありません。
それがない場合、システムの動作についての仮定に基づいて運用しています。現実ではありません。
マシンドリブンの環境では、伝統的な人間のレビューと承認モデルはなぜ効果が低くなっているのでしょうか?
スケールとスピードが変わったからです。
システムは1分間に数千または数百万のコールを実行し、攻撃または予期せぬ動作は数分または数秒で展開できます。実行可能なパフォーマンスを維持するために、各決定に対して人間をループに含めることは現実的に不可能です。
AIシステムは常に決定論的ではないため、事前の承認モデルも効果的ではありません。
人間の監視はまだ重要ですが、個々のアクションを承認するのではなく、ガイドレールを定義し、成果を監視することにシフトする必要があります。
あなたが見る最も一般的な運用上のギャップは、会社がレガシーセキュリティフレームワークを使用してAIシステムをセキュリティで保護しようとするときに何ですか?
最大のギャップは、設計時コントロールへの過度の依存です。
組織はモデルをセキュリティで保護し、コードをレビューし、デプロイ前にポリシーを定義することに焦点を当てています。那は重要ですが、システムがデプロイ後に予想どおりに動作することを前提としています。
現実には、システムは進化します。APIは変更されます。AIモデルは新しいデータやワークフローと相互作用します。動作は時間の経過とともに変化します。
デプロイ後の動作の継続的な検証がない場合、組織は基本的に盲目です。
AIおよびAPIリスクを共有する責任を持つ複数の利害関係者がいる場合、実用的な運用モデルはどのように見えますか?
それは、単一のチームがエンドツーエンドを所有できないことを認めることから始まります。
実用的なモデルは、共有の責任を定義します。ランタイムの動作という共通の真実に基づいています。
セキュリティはリスクとポリシーを定義します。エンジニアリングはシステムを構築して運用します。ビジネスは許容される成果を定義します。
先を行くチームは、閉じたループで運用しています。ランタイムで何が実際に起こっているかに基づいて、継続的な検出、適用、改良が行われています。設計時に仮定されたものではなく。
すべての利害関係者は、システムが本稼働環境でどのように動作するかについての可視性が必要です。そこから、チームは「良い」ものが何であるかについて一致し、逸脱を検出して対応できます。
シフトは、所有権のシロ化から調整された責任へのシフトです。ランタイムの洞察に基づいています。
先を見て、セキュリティの責任は再び中央集権化されるでしょうか?それとも、システムがより自律的になるにつれて、セキュリティの責任は断片化したままになるでしょうか?
責任は分散されたままです。それはシステムが構築されている方法を反映しているからです。
変わるのは、それがどのように調整されるかです。
統一されたガバナンスモデルが増えるでしょう。チームは自分のドメインを所有していますが、共有の可視性とコンテキストで運用しています。
成功する組織は、すべてを中央集権化しようとするものではありません。システムが実際にどのように動作するかについての合意に基づいて利害関係者を調整するものです。
ランタイムの動作を誰も理解していない場合、誰も真正にリスクを所有していません。
素晴らしいインタビュー、詳細を知りたい読者はWallarmを訪問してください。












