Connect with us

サイバーセキュリティ

AI、説明責任、サイバーセキュリティの目覚めの呼び声

mm

組織がイノベーションを推進し、運用を変革し、意思決定を最適化するために人工知能(AI)を採用し続けるにつれて、別の現実に直面する必要があります。AIはサイバーセキュリティの脅威の風景を急速に変化させています。AIはCISOが検出と対応を改善するのを助けている一方で、より洗練されたサイバー攻撃にもつながっています。貴重な洞察を生成する同じAIエンジンは、偽のID、フィッシングキャンペーン、またはマルウェアも生成できます。

Wiproのサイバーセキュリティ報告書2025は、この現実を正確に描写しています。セキュリティを強化するAIの約束にもかかわらず、組織はまだ期待を裏切っています。しかし、これは技術の問題ではなく、説明責任のギャップ、ガバナンス計画のシロ化、サイバーセキュリティ認識トレーニングの欠如によるものです。多くのサイバー攻撃は、先進的な敵対者だけでなく、人間のミスや基本的なサイバーセキュリティへの投資不足から生じています。

拡大する脅威の風景

AIはサイバーカルミナルにとっての風景を変えました。彼らは現在、生成モデルを使用してパーソナライズされたフィッシングメッセージを作成し、マルウェアの作成を自動化し、ディープフェイクを使用してエグゼクティブを模倣することができます。これらの戦術は、オープンソースツールやAI-as-a-Serviceプラットフォームを介してアクセスできるため、国家行為者やエリートハッキンググループに限定されていません。

Wiproの調査によると、44%の組織は内部の怠慢さと従業員のサイバーセキュリティ認識の欠如をトップの脆弱性として挙げており、ランサムウェアよりもリスクインデックスで上位に位置しています。これは、多くの企業が攻撃の進化する性質に追いついていないことを示しています。レガシーシステム、古いソフトウェア、弱いパッチ管理戦略は、サイバーカルミナルがネットワークに侵入することを容易にします。

基本的なセキュリティ慣行を怠ることは、時代遅れまたは許容される見落としではなくなりました — それが重大なビジネスリスクです。AIを活用した攻撃の増加は、サイバーセキュリティを真剣に考えている組織とそうでない組織の間のギャップを拡大させます。

責任の曖昧な線

報告書の重要な発見の1つは、サイバーセキュリティの所有権に関する明確性の欠如です。53%のCISOはCIOに直接報告していますが、残りのCISOはCOO、CFO、法務チームを含むさまざまなエグゼクティブ機能に散在しています。これにより、意思決定が弱まり、セキュリティの結果に対して誰が真正に責任を負っているのかがわかりにくくなります。

この問題は、AIが導入されるとさらに深刻化します。報告書によると、70%のヨーロッパの回答者は、AIの導入は共有責任であるべきであると考えていますが、13%のみがそれを担当する指定チームを持っています。明確な所有権が定義されていない場合、AIの導入は重要なリスクの監視なしで進み、不一致のある慣行、管理されていない脆弱性、規制フレームワークとの整合の失われた機会につながります。

ITリーダーは、サイバーセキュリティとAIガバナンスをエグゼクティブボードレベルの戦略的優先事項として扱う必要があります。上級エグゼクティブは、受動的な監視を超えて、テーブルトップ演習、シナリオプランニング、サイバーレディネスレビューに参加する必要があります。今日の環境では、コラボレーション、コミュニケーション、クライシスマネジメントが回復力の維持に必要です。

AIのセキュリティの再定義

AIは新たな脅威を生み出していますが、組織がネットワークを保護するのを助ける強力な機能も提供します。AI駆動の脅威検出は、リアルタイムで大量のデータを分析し、誤検知を削減し、潜在的な脆弱性を示す行動の不規則性を特定できます。インシデントトリアージを自動化し、対応時間を短縮し、セキュリティオペレーションセンターを支援できます。

Wiproによると、93%の調査対象組織が脅威検出と対応のためにAIを優先しています。これは、組織が脅威検出の価値を高く評価していることを反映しています。AIの双方向的な性質は、導入に慎重で責任あるアプローチを必要とします。組織は、モデル解釈可能性、バイアス軽減、データプライバシーローのコンプライアンスをカバーするガバナンスフレームワークが必要です。これらのフレームワークがなければ、AIは予測不可能なリスクではなく、回復力のツールとなる可能性があります。

従業員トレーニングの重要性

高度なAIツールの世界では、人間のミスはサイバーセキュリティの最も一貫した脆弱性のままです。フィッシングは65%の組織にとって最上位の攻撃ベクトルです。攻撃者がAIを使用してより説得力のあるソーシャルエンジニアリング戦術を作成するにつれて、ユーザーが引き起こす脆弱性のリスクが増大します。

これは、組織がサイバーセキュリティトレーニングを1回限りのコンプライアンス活動と見なしているためです。これは、時間の経過とともに進化する継続的なプロセスである必要があります。従業員は、共通の脅威やAIパワードのリスク、たとえばディープフェイクのボイスインパーソネーションやAIエナブルドプラットフォームに対するプロンプトインジェクション攻撃についてトレーニングを受ける必要があります。無視された更新、パッチされていないシステム、レガシーシステムへの依存は、継続的な問題であり、これらの怠慢さは脆弱性を生み出します。トレーニングは、定期的な監査、パッチ管理、部門間の調整と並んで実施される必要があります。

現代の脅威を真正に防御するには、組織は人間と機械の両方の知能に投資し、チームがテクノロジーと同じくらい敏捷で適応可能であることを確認する必要があります。

説明責任の文化の構築

サイバーセキュリティ戦略の基盤はテクノロジーではありません — それは明確性です。組織は、誰が何に対して責任を負うかを定義し、ガバナンス構造を確立し、セキュリティを優先する文化を全社的に促進する必要があります。

CISOまたは同等のITリーダーシップ役職に権限と可視性を与えることが重要です。IT、コンプライアンス、法務、ビジネスユニットの代表者を含むクロスファンクショナルサイバーリスク評議会を形成することも賢明です。いくつかの企業は、サイバーセキュリティの監視に特化した取締役会委員会を設立しています。

AIの導入に対するガバナンスフレームワークには、トレーニングデータ、モデル展開、アクセス権、リアルタイムモニタリングに関するコントロールが含まれる必要があります。これらのフレームワークは、EU AI法などの規制や、倫理的なAI使用に関する新興業界標準とともに進化する必要があります。

AIに関する従業員の教育は、この文化的転換に埋め込まれる必要があります。AIセキュリティは、ITの問題ではなく、部門、地域、役割を超えた共有の責任です。従業員全員が組織のデータとシステムを保護する役割を理解するとき、全社が勝利します。

認識から行動へ

AIはサイバーセキュリティの風景を再描画しています。攻撃者はより速く、よりスケーラブルで、自動化されています。防御者は強力なツールを利用できますが、ツールだけでは彼らを救うことはできません。

組織は、より強力なアルゴリズムではなく、より優れたガバナンスプロセスを構築する必要があります。これには、AIシステムの説明責任を明確にすることが含まれます。報告書は明確なメッセージを送っています。テクノロジーは急速に進化していますが、人々、プロセス、優先事項は遅れています。このギャップを埋めることは、特にAIが登場した今、戦略的課題です。AIが私たちの生活や仕事のやり方を変えることを続けることは間違いありません。しかし、それが組織を強化するか、または弱体化させるかは、説明責任をどれだけ真剣に受け止めるかによって決まります。今日から始めてください。

Saugat Sindhu, シニアパートナーおよびアドバイザリーサービス、サイバーセキュリティ&リスクサービス、Wipro