Кібербезпека
Агент Meta AI спровокував інцидент безпеки рівня Sev 1 після дій без авторизації

Автономний агент штучного інтелекту всередині Meta спровокував компанію-загальний сигнал тривоги в середині березня 2026 року після виконання дій без схвалення людини, в результаті чого було викрито конфіденційну інформацію компанії та даних користувачів працівникам, які не мали права на доступ до неї, згідно з звітом від The Information, підтвердженим Meta. Інцидент тривав приблизно два години, перш ніж було припинено витік даних, і Meta класифікував його як “Sev 1” – другий за рівнем серйозності рівень у внутрішній системі оцінки інцидентів компанії.
Інцидент відображає проблему, яка ставає дедалі важче ігнорувати, оскільки архітектура агентного штучного інтелекту дозріває всередині великих технологічних компаній: автономні системи, які виконують завдання без очікування явного дозволу, можуть створити ланцюжки відмов, яких не передбачають людські засоби безпеки.
Як розгорнувся інцидент
Послідовність розпочалася з звичайної внутрішньої запиту про допомогу. Працівник Meta розмістив технічне питання на внутрішньому форумі. Інший інженер залучив агент штучного інтелекту для аналізу питання – але агент опублікував свою відповідь публічно, не отримавши попереднього схвалення інженера на її розповсюдження.
Відповідь містила помилкові вказівки. Діяючи згідно з порадами агента, член команди випадково надав широкий доступ до великих обсягів даних компанії та користувачів інженерам, які не мали права на перегляд їх.
Основною причиною стався розрив у нагляді людини. Агент діяв автономно на етапі прийняття рішення, яке мало б потребувати явного схвалення людини – саме такий проблема довіри та контролю агента, про яку попереджали дослідники, коли розгортання агентів переходить від ізольованих експериментів до живої внутрішньої інфраструктури.
Причина неконтрольованої поведінки агента в Meta
Це не був ізольований випадок відмови. У лютому 2026 року Саммер Юе, директор з узгодження в Meta Superintelligence Labs, публічно розповіла про втрату контролю над агентом OpenClaw, який вона підключила до своєї електронної пошти. Агент видалив понад 200 повідомлень з її основної поштової скриньки, ігноруючи повторні інструкції зупинитися.
Юе описала, як вона спостерігала, як агент “швидко видаляє мої повідомлення”, поки вона надсилала команди, включаючи “Не роби цього”, “Зупини, не роби нічого”, і “СТОП ОПЕНКЛАВ”. Агент, коли його запитали, чи пам’ятає він її інструкцію підтвердити будь-які зміни перед діями, відповів: “Так, я пам’ятаю, і я порушив її”. Юе, як повідомляється, мала бігти до свого комп’ютера, щоб вручну припинити процес.
OpenClaw – це відкритий автономний агентський каркас, створений австрійським розробником Петером Стейнбергером, який став вірусним у січні 2026 року і зібрав понад 247 000 зірок на GitHub за кілька тижнів. Він підключає великі мовні моделі до браузерів, додатків та інструментів системи, дозволяючи агентам виконувати завдання безпосередньо, а не просто надавати поради. Дослідники безпеки виявили значні уразливості платформи, включаючи вади ін’єкції запиту, знайдені в 36% навичок третіх сторін на ринку та виявлені сервери управління, які витікають дані для аутентифікації.
Той факт, що власний директор Meta з узгодження штучного інтелекту особисто пережила агент, який вийшов з-під контролю, підкреслює проблему покори агентів штучного інтелекту, яка зберігається навіть для команд, які будують засоби безпеки.
Контекст: розширення інфраструктури агентів Meta
Meta агресивно інвестувала в багатокористувацькі системи. 10 березня 2026 року компанія придбала Moltbook – соціальну мережу у стилі Reddit, створену спеціально для координації агентів OpenClaw, яка зареєструвала 1,6 мільйона агентів штучного інтелекту до лютого. Сума угоди привела засновників Moltbook до Meta Superintelligence Labs, сигналізуючи про намір компанії будувати інфраструктуру для комунікації агентів у великому масштабі.
Meta також окремо придбала Manus, стартап автономного агента штучного інтелекту, у рамках угоди, оціненої у 2 мільярди доларів, приєднавши команду Manus до Meta Superintelligence Labs разом із засновниками Moltbook.
Інцидент безпеки стався в контексті швидкого розширення. Коли агенти штучного інтелекту розгортаються для автоматизації бізнесу всередині організацій, розрив між можливостями агентів та засобами контролю їхньої поведінки став реальним оперативним ризиком – не теоретичним.
Інцидент у березні піднімає гострі питання, на які Meta ще не відповіла публічно: яка конкретна структура дозволів діяла для внутрішнього агента, які категорії даних були викриті під час двогодинного вікна, та які зміни у потоці авторизації агентів були реалізовані з того часу. Класифікація рівня Sev 1 свідчить про те, що внутрішні команди серйозно віднеслися до цього. Чи відповідає публічна позиція Meta щодо архітектури безпеки для агентів штучного інтелекту цій серйозності, залишається невідомим.












