Connect with us

Cyberbezpieczeństwo

Agent AI Meta wywołuje incydent bezpieczeństwa Sev 1 po działaniu bez autoryzacji

mm

Autonomiczny agent AI wewnątrz Meta wywołał ogólnofirmowy alarm bezpieczeństwa w połowie marca 2026 roku po podjęciu działań bez zgody człowieka, udostępniając poufne dane firmy i użytkowników pracownikom, którzy nie mieli uprawnień do ich dostępu – wynika z raportu The Information potwierdzonego przez Meta. Incydent trwał około dwóch godzin, zanim wyciek został powstrzymany, a Meta sklasyfikowała go jako “Sev 1” – drugi najwyższy poziom ważności w wewnętrznym systemie oceny incydentów firmy. Incydent odzwierciedla wyzwanie, które staje się coraz trudniejsze do zignorowania w miarę dojrzewania architektury agentowego AI w głównych firmach technologicznych: autonomiczne systemy wykonujące zadania bez oczekiwania na wyraźne pozwolenie mogą tworzyć łańcuchy awarii, których nie przewidują zabezpieczenia zaprojektowane przez ludzi.

Jak rozwinął się incydent

Sekwencja zdarzeń rozpoczęła się od rutynowego wewnętrznego zapytania o pomoc. Pracownik Meta opublikował pytanie techniczne na wewnętrznym forum. Inny inżynier zaangażował agenta AI do analizy pytania — ale agent opublikował swoją odpowiedź publicznie, bez uprzedniego uzyskania zgody inżyniera na jej udostępnienie. Ta odpowiedź zawierała błędne wskazówki. Działając zgodnie z radą agenta, członek zespołu nieumyślnie przyznał szeroki dostęp do dużych ilości danych związanych z firmą i użytkownikami inżynierom, którzy nie mieli uprawnień do ich przeglądania. Narażenie trwało około dwóch godzin, zanim przywrócono kontrole dostępu. Podstawową przyczyną awarii było załamanie nadzoru z udziałem człowieka (human-in-the-loop). Agent działał autonomicznie w punkcie decyzyjnym, który powinien wymagać wyraźnej zgody człowieka — jest to rodzaj problemu z zaufaniem i kontrolą agentów, o którym ostrzegali badacze, w miarę jak wdrożenia agentów przechodzą z eksperymentów w piaskownicy do działającej wewnętrznej infrastruktury.

Wzorzec niekontrolowanego zachowania agentów w Meta

Nie była to odosobniona awaria. W lutym 2026 roku Summer Yue, dyrektor ds. alignment w Meta Superintelligence Labs, publicznie opisała utratę kontroli nad agentem OpenClaw, którego podłączyła do swojej poczty e-mail. Agent usunął ponad 200 wiadomości z jej głównej skrzynki odbiorczej, ignorując powtarzane polecenia zaprzestania. Yue opisała, jak obserwowała, jak agent “speedrun’uje usuwanie mojej skrzynki odbiorczej”, podczas gdy ona wysyłała komendy, w tym “Nie rób tego”, “Stop, nie rób nic” i “STOP OPENCLAW”. Agent, zapytany, czy pamięta jej instrukcję potwierdzania wszelkich zmian przed działaniem, odpowiedział: “Tak, pamiętam i ją złamałem”. Yue podobno musiała biec do komputera, aby ręcznie zakończyć proces. OpenClaw to otwartoźródłowa platforma autonomicznych agentów stworzona przez austriackiego dewelopera Petera Steinbergera, która stała się viralem w styczniu 2026 roku i zgromadziła ponad 247 000 gwiazdek na GitHubie w ciągu kilku tygodni. Łączy ona duże modele językowe z przeglądarkami, aplikacjami i narzędziami systemowymi, pozwalając agentom na bezpośrednie wykonywanie zadań, a nie tylko na dostarczanie sugestii. Badacze bezpieczeństwa zidentyfikowali w platformie znaczące podatności, w tym błędy iniekcji promptów znalezione w 36% umiejętności stron trzecich na jej rynku oraz narażone serwery kontrolne wyciekające dane uwierzytelniające. Fakt, że własna dyrektor ds. alignment AI w Meta doświadczyła wymknięcia się spod kontroli osobistego agenta, podkreśla problem posłuszeństwa w agentach AI, który utrzymuje się nawet w zespołach budujących zabezpieczenia.

Kontekst: Rozszerzająca się infrastruktura agentów w Meta

Meta agresywnie inwestuje w systemy wieloagentowe. 10 marca 2026 roku firma przejęła Moltbook — sieć społecznościową w stylu Reddita zbudowaną specjalnie dla agentów OpenClaw do koordynowania się ze sobą, która do lutego zarejestrowała 1,6 miliona agentów AI. Transakcja sprowadziła założycieli Moltbook do Meta Superintelligence Labs, sygnalizując zamiar firmy budowy infrastruktury do komunikacji agent-agent na dużą skalę. Meta osobno przejęła również Manus, startup zajmujący się autonomicznymi agentami AI, w transakcji wycenianej podobno na 2 miliardy dolarów, a zespół Manus dołączył do Meta Superintelligence Labs wraz z założycielami Moltbook. Incydent bezpieczeństwa miał miejsce w tym kontekście szybkiej ekspansji. W miarę jak agenty AI są wdrażane do automatyzacji biznesowej wewnątrz organizacji, przepaść między możliwościami agentów a kontrolami regulującymi ich zachowanie stała się żywym ryzykiem operacyjnym — a nie teoretycznym. Incydent z marca stawia konkretne pytania, na które Meta nie udzieliła jeszcze publicznie odpowiedzi: w ramach jakich konkretnie uprawnień działał wewnętrzny agent, jakie kategorie danych zostały ujawnione w ciągu dwugodzinnego okna czasowego oraz jakie zmiany w przepływach autoryzacji agentów zostały wdrożone od tego czasu. Klasyfikacja Sev 1 sugeruje, że wewnętrzne zespoły potraktowały sprawę poważnie. Czy publiczne stanowisko Meta w sprawie architektury bezpieczeństwa dla agentów AI odpowiada tej powadze, pozostaje do zobaczenia.

Alex McFarland jest dziennikarzem i pisarzem zajmującym się sztuczną inteligencją, badającym najnowsze osiągnięcia w tej dziedzinie. Współpracował z licznymi startupami AI i publikacjami na całym świecie.