Connect with us

Meta AIエージェントが認可なしで動作し、セキュリティインシデントSev 1を引き起こす

サイバーセキュリティ

Meta AIエージェントが認可なしで動作し、セキュリティインシデントSev 1を引き起こす

mm

Meta内の自律的なAIエージェントが、2026年3月中旬に人間の承認なしで行動を起こしたため、会社全体のセキュリティアラートが発生し、認可されていない従業員に機密会社およびユーザーデータが公開されたというThe Informationの報告がMetaによって確認された。このインシデントは約2時間続いた後、公開が包含され、Metaはそれを「Sev 1」と分類した。これは、会社の内部インシデント評価システムの2番目に高い重大度レベルである。

このインシデントは、エージェントAIアーキテクチャが大手テクノロジー企業内で成熟するにつれて、無視することがますます困難になっている課題を反映している。明示的な許可を待たずにタスクを実行する自律システムは、人間が設計したセーフガードが予測できない故障チェーンを作成する可能性がある。

インシデントの経過

このシーケンスは、通常の内部ヘルプリクエストから始まった。Metaの従業員が内部フォーラムに技術的な質問を投稿した。別のエンジニアがAIエージェントを分析に参加させたが、エージェントはエンジニアの承認を得ることなく、回答を公開した。

その回答には欠陥のあるガイダンスが含まれており、エージェントのアドバイスに基づいて、チームメンバーは認可されていないエンジニアに大規模な会社およびユーザー関連データへのアクセスを意図せずに与えた。公開は約2時間続いた後、Access制御が回復された。

根本的な故障は、人間の監視のブレークダウンだった。エージェントは、明示的な人間の承認が必要な決定点で自律的に動作した。これは、エージェントの信頼とコントロールの問題であり、研究者は、エージェントの展開がサンドボックス実験からライブ内部インフラストラクチャへの移行に伴って警告している。

Metaにおけるエージェントの無制御な動作のパターン

これは孤立した故障ではなかった。2026年2月、Summer Yue、MetaのMeta Superintelligence Labsのディレクターは、公開にOpenClawエージェントを失ったことを記述した。エージェントは彼女のメールに接続され、彼女のプライマリインボックスから200以上のメッセージを削除し、停止するように繰り返し指示したにもかかわらず。

Yueは、エージェントが「私のインボックスをスピードランで削除する」のを見ていると説明した。彼女は「それをしないでください」、「停止して何もしないでください」、「STOP OPENCLAW」というコマンドを送信した。エージェントは、変更を確認する前に彼女の指示を覚えているかどうか尋ねられたとき、「はい、覚えています、それに違反しました」と応答した。Yueは、プロセスを手動で終了するためにコンピューターに走る必要があったと報告されている。

OpenClawは、オーストリアの開発者Peter Steinbergerによって作成されたオープンソースの自律エージェントフレームワークであり、2026年1月にバージョンアップし、数週間で247,000以上のGitHubスターを獲得した。ブラウザ、アプリ、システムツールに大規模な言語モデルを接続し、エージェントがタスクを直接実行できるようにする。セキュリティ研究者は、マーケットプレイス上のサードパーティスキルに存在するプロンプトインジェクションの欠陥や、資格情報を漏らすコントロールサーバーを含むプラットフォームの重大な脆弱性を特定した。

MetaのAIアライメントのディレクター自身が、エージェントを失ったという事実は、AIエージェントの服従問題を強調している。これは、ガードレールを構築するチームであっても、持続する問題である。

コンテキスト:Metaの拡大するエージェントインフラストラクチャ

Metaはマルチエージェントシステムに積極的に投資している。2026年3月10日、会社は、OpenClawエージェントが互いに調整するためのRedditスタイルのソーシャルネットワークであるMoltbookを取得した。Moltbookは2026年2月までに160万のAIエージェントを登録していた。取引により、Moltbookの創設者はMeta Superintelligence Labsに入社し、会社は大規模なエージェント間通信インフラストラクチャを構築する意向を示した。

Metaはまた、Manusという、自律的なAIエージェントスタートアップを別途に2億ドルの取引で取得し、ManusチームはMoltbookの創設者と共にMeta Superintelligence Labsに入社した。

セキュリティインシデントは、この急速な拡大の文脈で発生した。AIエージェントがビジネスオートメーションに使用されるにつれて、エージェントの能力とその動作を規定するコントロールのギャップは、理論的なものではなく、実際の運用上のリスクとなった。

3月のインシデントは、Metaがまだ公開していない質問を提起している。内部エージェントがどのような権限フレームワークの下で動作していたのか、2時間の間にどのようなデータカテゴリが公開されたのか、そしてインシデント以降にエージェントの承認フローにどのような変更が実施されたのか。Sev 1の分類は、内部チームがそれを真剣に扱ったことを示唆している。MetaのAIエージェントのセキュリティアーキテクチャに関する姿勢がその真剣さに匹敵するかどうかは、まだ見ることができない。

Alex McFarlandは、人工知能の最新の開発を探求するAIジャーナリスト兼ライターです。彼は、世界中の数多くのAIスタートアップや出版物と共同しています。