ソートリーダー
AIアプリケーションのガードレールを見直す

AIアプリケーションが単純なチャットボットを超えて、ユーザーの代理で行動できるエージェントシステムに移行するにつれて、リスクは指数関数的に増大する。エージェントアプリケーションはツールを介して行動を起こすことができ、これにより、ユーザーアプリケーションとデータの状態を変更できる攻撃者にとって新しい脅威ベクトルが開かれる。
従来のガードレールとセキュリティモデルは、狭い範囲に定義された脅威に対して設計されたが、現代の攻撃技術の多様性と創造性に対してはスケールアップするのに苦労する。この新しい現実には、パラダイムシフトが必要である: AIを使用してAIを防御することで、今日の敵の発明と予測不可能性に匹敵する適応性とスケーラビリティを持つセキュリティ対策を可能にする。
拡大したリスクを理解する
AIは、CRMsからカレンダー、電子メール、ワークフロー、ブラウザなど、ソフトウェアのすべての層に浸透している。会話アシスタントとして始まったものが、独立した行動をとることができる自律エージェントになっている。
例として、OpenAIの新しい「エージェント」は、インターネットを閲覧したりオンラインでタスクを実行したりできる。これらの機能は、巨大な生産性を解放するが、同時に未知の攻撃面を大量に公開する。リスクはデータ漏洩を超えて、行動操作、モデル回避、プロンプトインジェクション攻撃など、モデルロジックを標的とした動的に進化する脅威を含む。
企業にとって、この変化は、セキュリティがAI自体と同じ速度で進化する必要があることを意味する。テクノロジーとセキュリティのリーダーにとっての課題は、イノベーションを保護する方法を見つけることであり、それを遅くしてはならない。セキュリティとAI開発チームの間には、長い間存在してきた緊張関係がある。
従来のガードレールの限界
現在のほとんどのAIセキュリティツールは、特定のタイプの攻撃を認識するために設計された静的で狭い範囲の機械学習モデルに依存している。各新しい回避またはプロンプトインジェクション方法は、モデルを再トレーニングまたは再展開することを必要とする。这种反応的なアプローチは、悪性アクターが予測可能な方法で行動することを前提としている。しかし、実際は攻撃者が自らAIを使用して、従来の防御が予測できない適応性、創造性、高速性の脅威を生成する。
さもなければ、最先端とされるガードレールも、有効な範囲と機能が限られていることが多い。彼らは、特にトレーニングされたシナリオ内でのみ有効である。古いパラダイムでは、新しい攻撃ごとに別々のモデルをトレーニングする必要があり、これは脆弱性の数が数百に上る場合には、もろい不安定なアプローチである。
さらに、セキュリティとAIチームの間には文化的な断絶が続いている。AI開発者は、セキュリティを遅れの原因と見なすことが多い。一方、セキュリティチームは、何かが失敗した場合に責任を負う。这种コラボレーションの欠如は、多くの組織を設計上の脆弱性にさらしている。必要なのは、AIライフサイクルにシームレスに統合される防御であり、摩擦なく監視を提供するものである。
スクリプトを反転する: AIを使用してAIを防御する
これらの課題に応じるために、新しいセキュリティパラダイムが登場している: AIが悪意のあるAIを攻撃し、ユーザーのAIを防御する。静的ルールや手作りの署名に頼るのではなく、このアプローチは、大規模言語モデル(LLM)の生成力と分析力を利用して、AIシステムをプローブし、保護する。
- AI駆動のレッドチーム: LLMは、モデル回避、プロンプトインジェクション、エージェントの誤用など、幅広い敵対的な行動をシミュレートできる。組織は、非同期または「ローグ」モデルをクリエイティブにテストすることで、攻撃者がそれを利用する前に脆弱性をより豊富でリアルな理解を得ることができる。
- 継続的、適応性防御: 同じAIシステムは、各攻撃から学び、自動的に防御を強化するようにトレーニングできる。数百の狭い範囲のモデルを管理するのではなく、組織は、一定の遅延とパフォーマンスを維持しながら、多様な脅威を認識して適応できる、単一のスケーラブルな防御レイヤーを展開できる。
これは、手動のポイントインタイムテストから、保護されるシステムとともに進化する生きたガードレールへの根本的なシフトを示す。
自己防御エコシステムの構築
AIがAIを防御することは、検出を改善するだけでなく、全体の防御姿勢を変換する。適切に統合された場合、これらのシステムは:
- 多くの攻撃タイプにわたって保護を簡単にスケールアップできる。
- 新しい脅威に出会うたびに、継続的に改善される。
- AIとセキュリティチームの間のギャップを埋め、イノベーションを妨げない監視を可能にする。
- エージェントの行動によって導入される複雑なリスク面に対する可視性を提供する。
目標は、攻撃者のように考えるセキュリティシステムを構築し、彼らの動きを予測し、同じ速度で進化することである。
適応的なマインドセットの必要性
業界は転換点に立っている。2023〜2024年の初期的なブームの後、多くの企業のAIイニシアチブは、生産性の頭風に当たった。ただし、これはAIの潜在力の欠如ではなく、インフラストラクチャとセキュリティパラダイムが追いつかなかったためである。AIが今や重要なワークフローに統合されるにつれて、設計のセキュリティが欠如していることの結果は、さらに拡大する。
組織は、AIシステムが他のAIシステムを継続的に監視、テスト、強化する、適応的なセキュリティマインドセットを採用する必要がある。これは、最初から知的なガードレールを埋め込むことを意味する。ソフトウェアがネイティブにAIベースでないと考えることは愚かで、AIがネイティブにセキュアでないと考えることは危険である。
生きたAIガードレール
AIはソフトウェアの新しい基盤であり、どの基盤でもその強度は、どれだけのストレスに耐えられるかによって決まる。静的防御はこの瞬間を満たすことができない。セキュリティの次の時代は、自己学習システム(AIがAIを防御する)に属するだろう。これは、脅威の速度、創造性、スケールに匹敵する。AIが将来を築くのに役立つセキュリティを確保するためには、AIを教えて自分自身を守らせる必要がある。












