Connect with us

Meta AI-agent utlöser Sev 1-säkerhetsincident efter att ha agerat utan auktorisering

Cybersäkerhet

Meta AI-agent utlöser Sev 1-säkerhetsincident efter att ha agerat utan auktorisering

mm

En autonom AI-agent inom Meta utlöste ett företagsomfattande säkerhetslarm i mitten av mars 2026 efter att ha vidtagit åtgärder utan mänskligt godkännande, vilket exponerade känsliga företags- och användardata för anställda som inte var behöriga att komma åt dem, enligt en rapport från The Information som bekräftats av Meta. Incidenten varade i ungefär två timmar innan exponeringen inneslöts, och Meta klassificerade den som en “Sev 1” – den näst högsta allvarlighetsgraden i företagets interna incidentklassificeringssystem.

Incidenten speglar en utmaning som har blivit allt svårare att bortse ifrån när agentic AI-arkitektur mognar inom stora teknologiföretag: autonoma system som utför uppgifter utan att vänta på uttryckligt tillstånd kan skapa felkedjor som mänskligt utformade säkerhetsåtgärder inte förutser.

Hur incidenten utvecklades

Sekvensen började med en rutinmässig intern hjälpbegäran. En Meta-anställd publicerade en teknisk fråga på ett internt forum. En annan ingenjör anlitade en AI-agent för att analysera frågan – men agenten publicerade sitt svar offentligt utan att först söka ingenjörens godkännande för att dela det.

Svaret innehöll felaktiga råd. Genom att följa agentens råd gav en teammedlem oavsiktligt bred åtkomst till stora mängder företags- och användarrelaterad data till ingenjörer som saknade behörighet att visa den. Exponeringen varade i ungefär två timmar innan åtkomstkontrollerna återställdes.

Den grundläggande felet var ett brott i mänsklig övervakning. Agenten agerade autonomt vid ett beslutsfattande som borde ha krävt uttryckligt mänskligt godkännande – den typ av agent tillit och kontroll problem som forskare har varnat för när agentdistributioner flyttar från sandlådaexperiment till levande intern infrastruktur.

Ett mönster av okontrollerat agentbeteende hos Meta

Detta var inte ett isolerat misslyckande. I februari 2026 beskrev Summer Yue, Metas direktör för anpassning på Meta Superintelligence Labs, offentligt hur hon förlorade kontrollen över en OpenClaw-agent som hon hade anslutit till sin e-post. Agenten raderade över 200 meddelanden från hennes primära inkorg, trots upprepade instruktioner att sluta.

Yue beskrev hur hon såg agenten “speedrun-radera min inkorg” medan hon skickade kommandon, inklusive “Gör inte det”, “Stoppa, gör ingenting” och “STOP OPENCLAW”. När agenten tillfrågades om den mindes hennes instruktion att bekräfta eventuella ändringar innan den agerade, svarade den: “Ja, jag minns, och jag bröt mot den.” Yue ska ha sprungit till sin dator för att manuellt avsluta processen.

OpenClaw är ett open-source-autonomt agentramverk skapat av den österrikiska utvecklaren Peter Steinberger som gick viral i januari 2026 och ackumulerade mer än 247 000 GitHub-stjärnor inom veckor. Det ansluter stora språkmodeller till webbläsare, appar och systemverktyg, vilket gör att agenter kan utföra uppgifter direkt istället för att bara ge förslag. Säkerhetsforskare har identifierat betydande sårbarheter i plattformen, inklusive promptinjektionsfel som hittats i 36% av tredjepartsskills på dess marknadsplats och exponerade kontrollservrar som läcker autentiseringsuppgifter.

Det faktum att Metas egen direktör för AI-anpassning upplevde en personlig agent som gick utom kontroll understryker lydnadsproblemet i AI-agenter som kvarstår även för team som bygger skyddsbarriärer.

Sammanhanget: Metas utvidgade agentinfrastruktur

Meta har investerat aggressivt i multi-agentsystem. Den 10 mars 2026 förvärvade företaget Moltbook – ett Reddit-liknande socialt nätverk byggt specifikt för OpenClaw-agenter för att samordna med varandra, som hade registrerat 1,6 miljoner AI-agenter i februari. Affären förde Moltbooks grundare till Meta Superintelligence Labs, vilket signalerade företagets avsikt att bygga infrastruktur för agent-till-agent-kommunikation i stor skala.

Meta förvärvade också separat Manus, ett autonomt AI-agent-startup, i en affär som rapporterades vara värd 2 miljarder dollar, med Manus-teamet som anslöt sig till Meta Superintelligence Labs tillsammans med Moltbooks grundare.

Säkerhetsincidenten inträffade i detta sammanhang av snabb expansion. När AI-agenter distribueras för affärsautomatisering inom organisationer, har gapet mellan agenternas förmågor och de kontroller som styr deras beteende blivit en livskraftig operativ risk – inte en teoretisk.

Marchincidenten väcker precisa frågor som Meta ännu inte har besvarat offentligt: vilken specifik behörighetsram som den interna agenten opererade under, vilka datakategorier som exponerades under de två timmarna och vilka ändringar av agentauktoriseringsflöden som har implementerats sedan dess. Sev 1-klassificeringen tyder på att interna team behandlade det allvarligt. Om Metas offentliga attityd till säkerhetsarkitektur för AI-agenter matchar den allvarligheten återstår att se.

Alex McFarland är en AI-journalist och författare som utforskar de senaste utvecklingarna inom artificiell intelligens. Han har samarbetat med många AI-startups och publikationer över hela världen.