ソートリーダー2 days ago
誰も注目していないAIリスク:企業ワークフローにおけるシークレット流出
企業のAIリスクに関する議論の多くは、よく知られた懸念から始まります。従業員が顧客データをチャットボットに貼り付けることです。プライバシーと規制上のリスクがヘッドラインや取締役会のブリーフィングを支配し、Deloitteの調査によれば、データプライバシーとセキュリティは、組織が懸念するAIリスクのトップにランクされています。 しかし、実際の企業利用から得られるデータは、異なる物語を語っています。AIツールに流れ込む最も一般的な機密情報は、個人データではありません。それはシークレットと認証情報です。 APIキー、アクセストークン、Webhook、認証アーティファクトが、現在、AIプロンプトで観察される機密データ流出の最大の割合を占めています。これらの開示は、不注意や悪意から生じることは稀で、代わりに、失敗した統合のデバッグ、自動化のトラブルシューティング、コードのテスト、顧客問題の解決といった日常業務から生じます。AIが日々のワークフローに組み込まれるにつれ、こうした瞬間は絶えず発生し、多くの場合、従来のセキュリティ制御の視界の外で起こります。 結果は明らかです。AI導入が拡大するにつれ、組織は真のリスクがどこから生じるかについてより正確な状況を把握しつつあり、ガバナンスはそれらに対処するために進化しなければなりません。 見過ごされがちなAIデータ流出リスクが明白な場所に潜んでいる Nudge Securityが実施した最近のAI利用分析は、職場でAIツールが実際にどのように使用されているかを理解するため、企業環境全体の匿名化されたテレメトリを調査しました。アンケートや自己申告に依存する代わりに、この調査は、企業SaaSエコシステム全体で観察されたAIアクティビティ、統合、プロンプトの挙動を分析しました。 その結果は、AIリスクが企業利用において実際にどこから生じているかについて新たな洞察を提供します。AIプロンプトにおける機密データ流出は、運用上の認証情報が支配的です。シークレットと認証情報は、検出された機密データイベントの約48%を占め、財務データの36%、健康関連情報の16%と比較されています。これらのパターンは、最も重要なAIデータ流出の課題がプライバシー漏洩ではなく、シークレットの拡散であることを示唆しています。 同じ調査は、AI導入が実験段階を超えたことを示しています。AIツールはワークフローに組み込まれ、中核的なビジネスプラットフォームと統合され、自律的なアクションを取る能力をますます高めています。主要な大規模言語モデルプロバイダーはほぼ遍在しており、OpenAIは組織の96%、Anthropicは78%に存在しています。 McKinseyの調査によると、組織の88%が少なくとも1つのビジネス機能で定期的なAI使用を報告しており、これは1年前の78%から増加しています。会議インテリジェンスツール、AI支援コーディングプラットフォーム、プレゼンテーション生成ツール、音声技術が広く導入されており、AIがチャットインターフェースから日常のワークフローへと拡大したことを反映しています。この拡大は重要です。なぜなら、リスクは利用に伴うからです。AIが開発者環境、コラボレーションプラットフォーム、カスタマーサポートのワークフローに組み込まれるにつれ、機密システムや運用データに近接することになります。 導入はまた、ボトムアップでも進められています。最近のKPMGの調査によると、従業員の44%が雇用主が承認していない方法でAIツールを使用しており、これらのツールがいかに迅速に日常業務に入り込んでいるかを反映しています。従業員はブラウザ拡張機能をインストールし、アシスタントを接続し、統合を試して日常業務を加速させており、多くの場合、中央集権的な調達プロセスの外で行われています。セキュリティアナリストはこのパターンをシャドウAIと表現し、従来のITの視界を超えてブラウザやSaaSワークフロー内で動作するツールを指します。これらのツールは即座に導入でき、技術的なセットアップがほとんど不要なため、ベンダー承認プロセスや利用許諾ポリシーを中心に構築されたガバナンスプログラムは、AIが実際に企業全体でどのように導入され使用されているかについていくのに苦労しています。 漏洩したシークレットが即座に運用リスクを生み出す理由 個人データは依然として機密性が高く規制されていますが、シークレットは即座に運用に影響を与えます。漏洩したAPIキーは本番システムへのアクセスを提供する可能性があります。侵害されたトークンはリポジトリを公開する可能性があります。Webhook URLは不正な自動化を可能にする可能性があります。認証情報は、日常業務の中でAIプロンプトに頻繁に現れます。開発者は認証失敗のトラブルシューティング中にトークンをチャットインターフェースに貼り付け、エンジニアは統合問題を診断するために設定スニペットを共有するかもしれません。これらの行動は珍しいことではありません。シークレットは技術的なワークフローに組み込まれており、ログ、スクリプト、設定ファイル、自動化出力に現れます。チームが問題を迅速に解決する圧力にさらされているとき、それらに含まれる機密データについて考えるために立ち止まることなく、これらのアーティファクトを共有してしまう可能性があります。 AIインターフェースはこの行動を増幅させます。プロンプトはコンテキストの共有を促します。ファイルアップロードはより豊富なトラブルシューティングを支援します。統合的なワークフローは、システム間でデータを移動することを容易にします。Nudge Securityの調査によると、プロンプトの17%にコピー&ペーストアクティビティまたはファイルアップロードが含まれています。この環境では、機密の認証情報が数秒で流出する可能性があります。 従来のガバナンスは行動リスクを見逃している AIガバナンスプログラムは、多くの場合、ポリシーや承認済みツールなどの形式的な制御に焦点を当てています。このアプローチは、リスクが誤用やモデルの挙動から生じると仮定しています。実際には、最も重大な流出は、善意の従業員によって行われる日常業務の中で発生します。 AIの状況は急速に変化しており、新しいテクノロジーが日々リリースされています。従業員が最新のツールに手を伸ばすとき、彼らは単に追いつけないため、従来のネットワーク制御のアプローチを回避することができます。ブラウザは、コンテキスト行動の直接的な観察を可能にし、現代の仕事の絶えず進化する状況についていくために必要な柔軟性を提供します。 この断絶が、組織が強力なポリシーを実施しながらも、依然として機密データ流出を経験する理由を説明しています。ポリシーは期待を確立します。行動が結果を決定します。効果的なガバナンスには、AIツールが実際にどのように使用されているかについての可視性と、データが共有される瞬間に安全な決定を導くガードレールが必要です。 統合とエージェントは流出範囲を拡大する AIツールのリスクプロファイルは、それが何にアクセスできるかによって形成されます。統合はシステム間の信頼された経路を作り出します。OAuth認可、APIトークン、サービスアカウントは、AIツールがドキュメントを取得したり、チケットを更新したり、コードリポジトリと対話したりすることを可能にします。企業のAI導入に関する調査は、統合が事実上流出範囲を定義することを強調しています。設定ミスや侵害されたトークンは、信頼された接続が機械の速度でデータ移動を可能にするため、ドキュメントリポジトリ全体や開発環境全体を公開する可能性があります。 エージェント型AIはさらなる複雑さをもたらします。初期の導入では、多くの場合、最小権限よりも機能性が優先されます。実験中に付与された権限は、初期のユースケースが進化した後も長く残存する可能性があります。時間の経過とともに、これらの蓄積された権限は静かなリスクを生み出します。セキュリティチームは、統合とエージェントの権限を一時的な便宜ではなく、永続的なアクセス決定として扱わなければなりません。 セキュリティチームが今すべきこと AIワークフローにおけるシークレット流出を減らすには、反応的な制御から、実際の仕事の進め方を反映したガバナンスへの変化が必要です。セキュリティリーダーは、可視性を向上させ、より安全な行動を導き、生産性を低下させることなく流出を減らす実践的なステップから始めることができます: AIインタラクションが発生する場所をマッピングする。...