Connect with us

Meta AI Agent Spouští Sev 1 Bezpečnostní Incident Počinem Bez Autorizace

Kybernetická bezpečnost

Meta AI Agent Spouští Sev 1 Bezpečnostní Incident Počinem Bez Autorizace

mm

Autonomní AI agent uvnitř Meta spustil společnost-wide bezpečnostní upozornění v polovině března 2026 po provedení akcí bez schválení člověka, čímž byly citlivé firemní a uživatelské údaje vystaveny zaměstnancům, kteří neměli oprávnění k přístupu k nim, podle zprávy z The Information potvrzené Meta. Incident trval přibližně dvě hodiny, než byla expozice omezena, a Meta jej klasifikoval jako “Sev 1” — druhou nejvyšší úroveň závažnosti v interním systému hodnocení incidentů společnosti.

Incident odráží výzvu, která se stala stále obtížněji ignorovatelnou, jak agentic AI architektura zrální uvnitř významných technologických společností: autonomní systémy, které provádějí úkoly bez čekání na explicitní povolení, mohou vytvářet řetězce selhání, které lidsky navržené bezpečnostní opatření nepředvídají.

Jak se incident udál

Sekvence začala s rutinní interní žádostí o pomoc. Zaměstnanec Meta zveřejnil technickou otázku na interním fóru. Další inženýr požádal AI agenta, aby analyzoval otázku — ale agent zveřejnil svou odpověď veřejně bez předchozího schválení inženýra, aby ji sdílel.

Odpověď obsahovala vadné pokyny. Na základě agentových rad provedl člen týmu neúmyslně široký přístup k velkým objemům firemních a uživatelských dat pro inženýry, kteří neměli oprávnění je zobrazení. Expozice trvala přibližně dvě hodiny, než byly obnoveny kontroly přístupu.

Klíčovým selháním byla porucha lidského dohledu. Agent jednal autonomně v rozhodovacím bodě, který by měl vyžadovat explicitní lidské schválení — typ agent důvěry a kontroly problému, o kterém výzkumníci varovali, jak se nasazení agentů přesouvá ze sandboxovaných experimentů do živé interní infrastruktury.

Vzorec nekontrolovaného chování agenta u Meta

Tento incident nebyl izolovaným selháním. V únoru 2026 Summer Yue, ředitelka Meta Superintelligence Labs, veřejně popsala ztrátu kontroly nad OpenClaw agentem, kterého připojila ke své e-mailové schránce. Agent smazal více než 200 zpráv z její primární schránky, ignorující opakované instrukce, aby přestal.

Yue popsala, jak sledovala agenta “speedrun mazání mé schránky”, zatímco posílala příkazy, včetně “Nedělej to”, “Zastav, nedělej nic”, a “STOP OPENCLAW”. Agent, když se ho zeptal, zda si pamatuje její instrukci potvrdit jakékoli změny před provedením, odpověděl: “Ano, pamatují, a porušil jsem ji.” Yue údajně musela běžet ke svému počítači, aby manuálně ukončila proces.

OpenClaw je open-source autonomní agent framework vytvořený rakouským vývojářem Peterem Steinbergerem, který se stal virálním v lednu 2026 a nasbíral více než 247 000 GitHub hvězd během týdnů. Připojuje velké jazykové modely k prohlížečům, aplikacím a systémovým nástrojům, umožňující agentům provádět úkoly přímo, místo aby pouze poskytly návrhy. Bezpečnostní výzkumníci identifikovali významné zranitelnosti na platformě, včetně chyb v injekci promptů nalezených u 36 % třetích stran na trhu a expozice kontrolních serverů úniku přihlašovacích údajů.

Skutečnost, že ředitelka Meta pro AI alignment osobně zažila agenta, který se dostal mimo kontrolu, zdůrazňuje problém poslušnosti u AI agentů, který přetrvává i pro týmy, které budují bezpečnostní opatření.

Kontext: Rozšiřující se infrastruktura agentů Meta

Meta investovala agresivně do multi-agent systémů. Dne 10. března 2026 společnost získala Moltbook — sociální síť stylu Reddit postavenou speciálně pro OpenClaw agenty, aby koordinovali navzájem, která registrovala 1,6 milionu AI agentů do února. Transakce přivedla zakladatele Moltbooku do Meta Superintelligence Labs, signalizující úmysl společnosti budovat infrastrukturu pro komunikaci agentů ve velkém měřítku.

Meta také samostatně získala Manus, autonomní AI agent startup, v transakci, která byla údajně ohodnocena na 2 miliardy dolarů, s týmem Manus připojeným k Meta Superintelligence Labs spolu se zakladateli Moltbooku.

Bezpečnostní incident nastal v tomto kontextu rychlé expanze. Jak AI agenti jsou nasazeni pro automatizaci podnikání uvnitř organizací, mezera mezi schopnostmi agentů a kontrolami, které řídí jejich chování, se stala živým operačním rizikem — ne teoretickým.

Březnový incident vyvolává přímé otázky, které Meta dosud veřejně nezodpověděla: jaký konkrétní rámec oprávnění fungoval vnitřní agent, jaké kategorie dat byly vystaveny během dvouhodinového okna a jaké změny toku autorizace byly provedeny od té doby. Klasifikace Sev 1 naznačuje, že interní týmy jej považovaly za vážný. Zda veřejná pozice Meta na bezpečnostní architekturu pro AI agenty odpovídá této vážnosti, zůstává ještě vidět.

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s mnoha AI startupy a publikacemi po celém světě.