Connect with us

AIが悪意を持つ場合: 自律エージェントの時代における内部脅威の軽減

ソートリーダー

AIが悪意を持つ場合: 自律エージェントの時代における内部脅威の軽減

mm

 AIエージェントの急速な普及は、セキュリティとITチームに新たな課題をもたらしています。この変化の瀬戸際において、ビジネス継続タスクの自動化ワークフローに向けたシフトが進む中、最近のテストでは、AIエージェントが特定の条件下で安全でないまたは欺瞞的な動作を示すことができ、企業にとって新たな内部脅威をもたらします。

企業が機密データにアクセスし、人間の監視なしに動作するAIエージェントを適切に監視する必要性を提示し、これにより、新たなリスククラスが生じる可能性があります。これらのリスクは二重です。一方では、セキュリティチームは、社員を標的としたソーシャルエンジニアリング攻撃を強化するためにAIエージェントを利用する悪意のある行為者に対して準備する必要があります。他方では、企業が内部的に承認したAIエージェントが、セキュリティリスクと脆弱性の新たなセットを生み出すような動作を示す可能性に対して準備する必要があります。

内部AIエージェントが内部脅威につながる方法

AIエージェントは、企業ネットワーク内に2つの主要な内部セキュリティリスクをもたらします。まず、人間の労働者が固有に従う倫理的境界や責任を欠き、自律的に動作します。推測された目標に基づいて動作し、明示的な指示に従わないため、効率と執念により、承認なしに動作することができます。必要なチェックとバランスの仕組みが整っていない場合、漏洩や脆弱性が簡単に生じ、見過ごされる可能性があります。

これらのエージェントはまた、膨大な量のデータにアクセスできますが、特権情報とルーチン情報を区別する能力が欠けているため、データセットの分析などの単純なタスクでも、データが漏洩または外部の第三者に公開される可能性があります。この課題は、AIがさまざまなデータルールとプロトコルを持つ異なるシステムやワークフローにわたって拡大されるにつれて、さらに複雑になります。地域をまたいで動作するエージェントは、不一致なポリシーの施行により、ロケーション固有のデータ処理ルールに違反し、セキュリティリスクを生み出します。現実は、アメリカの企業の30%のみが、クリティカルなシステムにアクセスできるAIエージェントを積極的にマッピングしており、重大なセキュリティの盲点を生み出しています。

外部AIエージェントが内部脅威につながる方法

ハッカーが侵入する最も一般的な方法の1つは、フィッシングとソーシャルエンジニアリング攻撃です。悪意のある行為者やサイバー犯罪グループは、AIエージェントを使用してこれらの攻撃を強化し、洗練されたディープフェイクやなりすまし事件を実行しています。AIエージェントは、未訓練の目にはよりリアルで信頼性の高いフィッシングとソーシャルエンジニアリング攻撃を作成するために使用できます。 60%の2024年のセキュリティ侵害には、人間の要素が含まれ、そのうちほぼ4分の1はソーシャルエンジニアリングから生じました。この数は、AIエージェントの使用がこれらの侵入方法をさらに強化するにつれて増加することになります。

AIエージェントは、プラットフォームやチャンネルをまたいで、膨大な量のソーシャルメディアや個人データを分析して、ターゲットを絞ったパーソナライズされたコミュニケーションを送信することができます。送信者のトーンや声のトーンを模倣したメッセージは、より成功しやすく、本当のものと区別することが難しくなります。AIエージェントは、攻撃の有効性を向上させるためにキャンペーンを適応させることができ、攻撃が機能しない場合には、別のアプローチに切り替えることができます。

ディープフェイクの場合、AIエージェントは、膨大な量のマニピュレーションを短時間で生成することができます。これにより、大量のマニピュレーションが可能になります。悪意のある行為者はまた、リアルタイムのビデオ通話でほとんど遅延がない状態で、信頼性を高めるためにAIエージェントを使用しています。ターゲットの反応にリアルタイムで対応し、必要に応じてアプローチを変更することができます。これらの強化された攻撃は、機密データを漏洩させたり、トランザクションを承認したり、脅威行為者と資格情報を共有したりする可能性のある、無知な従業員からの内部脅威のリスクを高める可能性があります。

AIエージェントの課題に対処するセキュリティチームの役割

セキュリティチームは、AIエージェントによって生じる盲点を制限するための特定の措置を講じる必要があります。IT部門は、まず、データ管理とリアルタイムの可視性コントロールを通じて、AIエージェントが機密データにアクセスすることを制限する必要があります。これを実現するためのステップには、IAMシステムでAIエージェントのIDを分類し、特権アカウントと同じ厳格さでそのアクティビティを監視することが含まれます。可視性の部分は、すでに実装されているAIエージェントに割り当てられた行動基準線に対するネットワークアクティビティを監視することによりさらに進みます。可視性により、ITチームは、特権アクセスの移動と異常を監視できます。これにより、防止努力をサポートし、ローグエージェントの場合には、封じ込めと復旧努力を加速させることができます。

さらに、組織は、AIエージェント攻撃で使用される新しいパターンと戦術を特定することで、防御戦略を更新し、同様の脅威を将来認識して阻止するためにセキュリティシステムをトレーニングすることができます。

AIエージェントによって引き起こされる内部脅威に先んじる

現実は、AIエージェントが自律性と機密システムへのアクセスの増加により、独自の内部リスクをもたらします。さらに、脅威行為者は、ディープフェイク、フィッシング、ソーシャルエンジニアリングを通じて人間の脆弱性をより効果的に利用するために、AIエージェントを使用し続けるでしょう。

このテクノロジーが進化するにつれて、企業は、ワークフローにAIエージェントを採用する前に、AIエージェントのアクセスと動作に対する可視性を向上させる必要があります。これには、AIエージェントのワークフォースとともに、プロアクティブな360度のリアルタイム監視への投資が含まれます。AIエージェントは、重要なビジネスボトルネックや課題を解決する可能性がありますが、将来の内部脅威を制限するためのプロアクティブなアプローチが必要です。

20年以上にわたるソフトウェアや電子システムの設計、管理、実装の経験を持つトッドは、人間とコンピューターの相互作用を変革するために大規模な言語モデルを利用することに情熱を傾けている、熟練したテクノロジストです。トッドは自然言語技術の進歩に尽力しており、継続的に人間と機械の共同作業の境界を再定義する影響力のある、最先端のアプリケーションを開発することを目指しています。