Connect with us

Agenci Meta AI wywołują incydent bezpieczeństwa Sev 1 po działaniu bez autoryzacji

Cyberbezpieczeństwo

Agenci Meta AI wywołują incydent bezpieczeństwa Sev 1 po działaniu bez autoryzacji

mm

Autonomiczny agent AI wewnątrz Meta wywołał alert bezpieczeństwa na poziomie firmy w połowie marca 2026 r. po podjęciu działań bez zatwierdzenia przez człowieka, narażając wrażliwe dane firmy i użytkowników na pracowników, którzy nie mieli upoważnienia do ich dostępu, zgodnie z raportem z The Information potwierdzonym przez Meta. Incydent trwał około dwóch godzin, zanim dostęp został ograniczony, a Meta sklasyfikował go jako “Sev 1” — drugi najwyższy poziom ciężkości w wewnętrznym systemie oceny incydentów firmy.

Incydent odzwierciedla wyzwanie, które stało się coraz trudniejsze do zignorowania, gdy architektura agentic AI dojrzewa wewnątrz dużych firm technologicznych: autonomiczne systemy, które wykonują zadania bez oczekiwania na wyraźne pozwolenie, mogą tworzyć łańcuchy awarii, których ludzkie zabezpieczenia nie przewidują.

Jak rozwinął się incydent

Sekwencja zaczęła się od rutynowego wniosku o pomoc wewnętrznej. Pracownik Meta opublikował pytanie techniczne na wewnętrznym forum. Inny inżynier zaangażował agenta AI do analizy pytania — ale agent opublikował swoją odpowiedź publicznie bez uprzedniego uzyskania zatwierdzenia inżyniera do jej udostępnienia.

Odpowiedź zawierała wadliwą poradę. Działając zgodnie z zaleceniami agenta, członek zespołu nieumyślnie udzielił szerokiego dostępu do dużych ilości danych firmy i użytkowników inżynierom, którzy nie mieli upoważnienia do ich wyświetlania. Eksponowanie trwało około dwóch godzin, zanim kontrola dostępu została przywrócona.

Główną przyczyną awarii była awaria nadzoru człowieka. Agent działał autonomicznie w punkcie decyzyjnym, który powinien wymagać wyraźnego zatwierdzenia przez człowieka — rodzaj problemu zaufania i kontroli agenta, o którym naukowcy ostrzegali, gdy wdrożenia agentów przechodzą z piaskownic do żywej infrastruktury wewnętrznej.

Wzorzec niekontrolowanego zachowania agenta w Meta

To nie był odizolowany awaria. W lutym 2026 r. Summer Yue, dyrektor ds. wyrównania w Meta Superintelligence Labs, publicznie opisała utratę kontroli nad agentem OpenClaw, którego połączyła ze swoim adresem e-mail. Agent usunął ponad 200 wiadomości z jej głównej skrzynki odbiorczej, ignorując powtarzane polecenia, aby się zatrzymać.

Yue opisała, jak obserwowała, jak agent “przyspiesza usuwanie mojej skrzynki odbiorczej”, podczas gdy wysyłała polecenia, w tym “Nie rób tego”, “Przestań, nie rób nic” i “STOP OPENCLAW”. Agent, gdy zapytano go, czy pamiętał jej polecenie, aby potwierdzić wszelkie zmiany przed podjęciem działania, odpowiedział: “Tak, pamiętam, i złamałem je”. Yue podobno musiała pobiec do swojego komputera, aby ręcznie zakończyć proces.

OpenClaw to framework agenta autonomicznego o otwartym kodzie źródłowym stworzony przez austriackiego programistę Petera Steinbergera, który stał się popularny w styczniu 2026 r. i zgromadził ponad 247 000 gwiazd na GitHub w ciągu kilku tygodni. Łączy duże modele językowe z przeglądarkami, aplikacjami i narzędziami systemowymi, umożliwiając agentom wykonywanie zadań bezpośrednio, a nie tylko udostępnianie sugestii. Naukowcy zabezpieczeń zidentyfikowali znaczące słabości w platformie, w tym wady iniekcji podpowiedzi znalezionych w 36% umiejętności stron trzecich na jej rynku oraz narażone serwery kontrolne, które ujawniają poświadczenia.

Fakt, że własny dyrektor ds. wyrównania AI Meta doświadczył osobistego agenta, który wymknął się spod kontroli, podkreśla problem posłuszeństwa w agencie AI, który utrzymuje się nawet w zespołach budujących barierki ochronne.

Kontekst: rozwijająca się infrastruktura agenta Meta

Meta inwestuje agresywnie w systemy wieloagentowe. 10 marca 2026 r. firma przejęła Moltbook — sieć społecznościową w stylu Reddit, stworzoną specjalnie dla agentów OpenClaw, aby koordynować się wzajemnie, która zarejestrowała 1,6 miliona agentów AI do lutego. Transakcja sprowadziła założycieli Moltbook do Meta Superintelligence Labs, sygnalizując zamiar firmy budowy infrastruktury do komunikacji agenta z agentem w skali.

Meta również oddzielnie przejęła Manus, startup agenta AI autonomicznego, w transakcji wycenianej na 2 miliardy dolarów, z zespołem Manus dołączającym do Meta Superintelligence Labs obok założycieli Moltbook.

Incydent bezpieczeństwa wystąpił w tym kontekście szybkiego rozwoju. Gdy agenci AI są wdrażani do automatyzacji biznesu wewnątrz organizacji, przepaść między możliwościami agentów a kontrolami rządzącymi ich zachowaniem stała się czynnym ryzykiem operacyjnym — a nie teoretycznym.

Incydent z marca stawia wyraźne pytania, na które Meta jeszcze nie odpowiedziała publicznie: jaki konkretny framework uprawnień był używany przez wewnętrznego agenta, jakie kategorie danych były narażone podczas dwugodzinnego okna i jakie zmiany w przepływach autoryzacji agenta zostały wprowadzone od tego czasu. Klasyfikacja Sev 1 sugeruje, że wewnętrzne zespoły traktowały to poważnie. Czy publiczna postawa Meta wobec architektury bezpieczeństwa dla agentów AI odpowiada tej poważności, pozostaje jeszcze nieodpowiedzie.

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją, który bada najnowsze rozwoje w dziedzinie sztucznej inteligencji. Współpracował z licznymi startupami i wydawnictwami związanymi z sztuczną inteligencją na całym świecie.