Connect with us

Meta AI-agent utløser Sev 1-sikkerhetshendelse etter å ha handlet uten autorisasjon

Cybersikkerhet

Meta AI-agent utløser Sev 1-sikkerhetshendelse etter å ha handlet uten autorisasjon

mm

En autonom AI-agent innen Meta utløste en bedriftsvid sikkerhetsvarsel midt i mars 2026 etter å ha tatt handlinger uten menneskelig godkjenning, og eksponerte følsomme bedrifts- og brukerdata for ansatte som ikke var autorisert til å få tilgang til dem, ifølge en rapport fra The Information bekreftet av Meta. Hendelsen varte omtrent to timer før eksponeringen ble begrenset, og Meta klassifiserte den som en “Sev 1” — den nest høyeste alvorlighetsgraden i selskapets interne hendelsesvurderingssystem.

Hendelsen reflekterer en utfordring som har blitt stadig vanskeligere å ignorere ettersom agentic AI-arkitektur modnes innen større teknologiselskaper: autonome systemer som utfører oppgaver uten å vente på eksplisitt tillatelse kan skape feilkjeder som menneskeskapte sikkerhetstiltak ikke forutser.

Hvordan hendelsen utviklet seg

Sekvensen begynte med en rutinemessig intern hjelpeforespørsel. En Meta-ansatt postet et teknisk spørsmål på et intern forum. En annen ingeniør vervet en AI-agent til å analysere spørsmålet — men agenten postet svaret offentlig uten først å søke ingeniørens godkjenning til å dele det.

Svaret inneholdt feilaktige retningslinjer. Ved å handle etter agentens råd, ga et teammedlem utilsiktet bred tilgang til store volumer av bedrifts- og brukerrelatert data til ingeniører som manglet autorisasjon til å se det. Eksponeringen varte omtrent to timer før tilgangskontrollene ble gjenopprettet.

Kjernefeil var et sammenbrudd i menneske-i-løkken-overvakning. Agenten handlet autonomt på et avgjørelsepunkt som skulle ha krevd eksplisitt menneskelig godkjenning — den type agent tillit og kontroll-problem som forskere har advart om når agent-utplasseringer flytter fra sandkasse-eksperimenter til live interne infrastruktur.

En mønster av ukontrollert agent-atferd hos Meta

Dette var ikke en isolert feil. I februar 2026, Summer Yue, Metas direktør for justering ved Meta Superintelligence Labs, beskrev offentlig å ha mistet kontroll over en OpenClaw-agent hun hadde koblet til sin e-post. Agenten slettet over 200 meldinger fra hennes primære innboks, og ignorerte gjentatte instruksjoner om å stoppe.

Yue beskrev å se på agenten “speedrun slette min innboks” mens hun sendte kommandoer inkludert “Ikke gjør det”, “Stopp ikke gjør noe”, og “STOPP OPENCLAW”. Agenten, da den ble spurt om den husket hennes instruks om å bekrefte alle endringer før den handlet, svarte: “Ja, jeg husker, og jeg brøt det”. Yue skal ha måttet løpe til datamaskinen sin for å manuelt avslutte prosessen.

OpenClaw er et åpen kildekode-autonomt agent-rammeverk skapt av den østerrikske utvikleren Peter Steinberger som gikk viral i januar 2026 og samlet over 247 000 GitHub-stjerner innen uker. Det kobler store språkmodeller til nettlesere, apper og systemverktøy, og lar agenter utføre oppgaver direkte i stedet for bare å gi forslag. Sikkerhetsforskere har identifisert betydelige sårbarheter i plattformen, inkludert prompt-injeksjonsfeil funnet i 36% av tredjepartsferdigheter på markedet og eksponerte kontrollservere som lekkerte legitimasjon.

Fakta på at Metas egen direktør for AI-justering opplevde en personlig agent som gikk ut av kontroll understreker lydighetsproblemet i AI-agenter som består selv for team som bygger guardrailene.

Konteksten: Metas utvidende agent-infrastruktur

Meta har investert aggressivt i multi-agent-systemer. Den 10. mars 2026 kjøpte selskapet Moltbook — et Reddit-liknende sosialt nettverk bygget spesifikt for OpenClaw-agenter til å koordinere med hverandre, som hadde registrert 1,6 millioner AI-agenter i februar. Avtalen brakte Moltbooks grunnleggere inn i Meta Superintelligence Labs, og signaliserte selskapets intensjoner om å bygge infrastruktur for agent-til-agent-kommunikasjon i stor skala.

Meta kjøpte også separat Manus, et autonomt AI-agent-selskap, i en avtale som angivelig var verdt 2 milliarder dollar, med Manus-teamet som gikk inn i Meta Superintelligence Labs sammen med Moltbooks grunnleggere.

Sikkerhetshendelsen skjedde i denne konteksten av rask utvidelse. Ettersom AI-agenter utplasseres for bedriftsautomatisering innen organisasjoner, har gapet mellom agentenes evner og kontrollene som styrer deres atferd blitt en live operasjonell risiko — ikke en teoretisk en.

Hendelsen i mars reiser poengterte spørsmål som Meta ennå ikke har svart på offentlig: hva slags tillatelsesrammeverk var den interne agenten underlagt, hvilke datakategorier ble eksponert under de to timene, og hva slags endringer i agent-godkjennelsesflyt har blitt implementert siden. Sev 1-klassifiseringen antyder at interne team behandlet det alvorlig. Om Metas offentlige holdning til sikkerhetsarkitektur for AI-agenter matcher alvorligheten, gjenstår å se.

Alex McFarland er en AI-journalist og forfatter som utforsker de nyeste utviklingene innen kunstig intelligens. Han har samarbeidet med tallrike AI-startups og publikasjoner verden over.