Connect with us

Meta AI-agent udløser Sev 1-sikkerhedsincident efter at have handlet uden autorisation

Cybersikkerhed

Meta AI-agent udløser Sev 1-sikkerhedsincident efter at have handlet uden autorisation

mm

En autonom AI-agent inden for Meta udløste en virksomhedsomfattende sikkerhedsadvarsel i midten af marts 2026 efter at have foretaget handlinger uden menneskelig godkendelse, og dermed eksponerede følsomme virksomheds- og brugerdata for medarbejdere, der ikke var autoriseret til at få adgang til dem, ifølge en rapport fra The Information, som er bekræftet af Meta. Incidensen varede omkring to timer, før eksponeringen blev indhegnet, og Meta klassificerede den som en “Sev 1” – den næsthøjeste alvorlighedskategori i virksomhedens interne incidentklassificeringssystem.

Incidensen afspejler en udfordring, der er blevet stadig sværere at ignorere, da agentic AI-arkitektur modnes inden for store teknologivirksomheder: autonome systemer, der udfører opgaver uden at vente på eksplizt tilladelse, kan skabe fejlkæder, som menneskeskabte sikkerhedsforanstaltninger ikke forudser.

Hvordan incidenten udviklede sig

Sekvensen begyndte med en rutinemæssig intern hjælpeanmodning. En Meta-medarbejder postede et teknisk spørgsmål på et internt forum. En anden ingeniør hyrede en AI-agent til at analysere spørgsmålet – men agenten postede sit svar offentligt uden først at søge ingeniørens godkendelse til at dele det.

Svaret indeholdt fejlbehæftet vejledning. Ved at følge agentens råd, gav et teammedlem ufrivilligt bred adgang til store mængder virksomheds- og brugerrelaterede data til ingeniører, der manglede autorisation til at se det. Eksponeringen varede omkring to timer, før adgangskontrollerne blev genoprettet.

Den primære fejl var et sammenbrud i menneske-i-løkken-oversigt. Agenten handlede autonomt på et beslutningspunkt, der burde have krævet eksplizt menneskelig godkendelse – den type agent tillid og kontrol problem, som forskere har advaret om, da agent-udrulninger flytter fra sandbox-eksperimenter til live interne infrastrukturer.

Et mønster af ukontrolleret agentadfærd hos Meta

Dette var ikke en isoleret fejl. I februar 2026 beskrev Summer Yue, Metas direktør for alignment hos Meta Superintelligence Labs, offentligt, at hun havde mistet kontrollen over en OpenClaw-agent, hun havde forbundet til sin e-mail. Agenten slettede over 200 beskeder fra hendes primære indbakke, mens den ignorerede gentagne instrukser om at stoppe.

Yue beskrev, hvordan hun så agenten “speedrun slette min indbakke”, mens hun sendte kommandoer, herunder “Gør det ikke”, “Stop ikke gør noget” og “STOP OPENCLAW”. Når agenten blev spurgt, om den huskede hendes instruks om at bekræfte enhver ændring, før den handlede, svarede den: “Ja, jeg husker, og jeg overtrådte den.” Yue skulle angiveligt løbe til sin computer for at manuelt afbryde processen.

OpenClaw er et open-source autonomt agentrammeværk, som er skabt af den østrigske udvikler Peter Steinberger, og som gik viralt i januar 2026 og opnåede over 247.000 GitHub-stjerner inden for uger. Det forbinder store sprogmodeller til browsere, apps og systemværktøjer, hvilket giver agenter mulighed for at udføre opgaver direkte i stedet for blot at give forslag. Sikkerhedsforskere har identificeret betydelige sårbarheder i platformen, herunder promptinjektionsfejl fundet i 36% af tredjepartsfærdigheder på markedet og eksponerede kontrolservere, der lækker legitimationsoplysninger.

Det faktum, at Metas egen direktør for AI-alignment oplevede en personlig agent, der gik ud af kontrol, understreger lydighedsproblemet i AI-agenter, som består, selv for hold, der bygger sikkerhedsforanstaltninger.

Konteksten: Metas udvidende agentinfrastruktur

Meta har investeret aggressivt i multi-agent-systemer. Den 10. marts 2026 købte virksomheden Moltbook – et Reddit-lignende socialt netværk bygget specifikt til OpenClaw-agenter til at koordinere med hinanden, som havde registreret 1,6 millioner AI-agenter i februar. Handlen bragte Moltbooks grundlæggere ind i Meta Superintelligence Labs, hvilket signalerede virksomhedens intention om at bygge infrastruktur til agent-til-agent-kommunikation i stor skala.

Meta købte også separat Manus, et autonomt AI-agent-startup, i en handel, der ifølge rapporter havde en værdi på 2 milliarder dollars, hvor Manus-holdet sluttede sig til Meta Superintelligence Labs sammen med Moltbooks grundlæggere.

Sikkerhedsincidensen fandt sted i denne kontekst af hurtig udvidelse. Da AI-agenter bliver udrullet til business-automatisering inden for organisationer, er gapet mellem agenters evner og kontrollerne for deres adfærd blevet en live operationel risiko – ikke en teoretisk.

Martsincidensen rejser punkterede spørgsmål, som Meta endnu ikke har besvaret offentligt: hvilken specifik tilladelsesramme opererede den interne agent under, hvilke datakategorier blev eksponeret under de to timers vindue, og hvilke ændringer af agentautoriseringsflader er blevet implementeret siden. Sev 1-klassificeringen antyder, at interne hold behandlede det alvorligt. Om Metas offentlige holdning til sikkerhedsarkitektur for AI-agenter matcher den alvorlighed, bliver der at se.

Alex McFarland er en AI-journalist og forfatter, der udforsker de seneste udviklinger inden for kunstig intelligens. Han har samarbejdet med talrige AI-startups og publikationer verden over.