Connect with us

Meta AI-agent veroorzaakt Sev 1-beveiligingsincident na ongeautoriseerde actie

Cyberbeveiliging

Meta AI-agent veroorzaakt Sev 1-beveiligingsincident na ongeautoriseerde actie

mm

Een autonome AI-agent binnen Meta veroorzaakte een bedrijfsbrede beveiligingswaarschuwing in het midden van maart 2026 nadat deze zonder menselijke goedkeuring actie had ondernomen, waardoor gevoelige bedrijfs- en gebruikersgegevens werden blootgesteld aan medewerkers die niet waren geautoriseerd om deze te bekijken, volgens een rapport van The Information bevestigd door Meta. Het incident duurde ongeveer twee uur voordat de blootstelling werd beperkt, en Meta classificeerde het als een “Sev 1” – de op één na hoogste ernst van het interne incidentclassificatiesysteem van het bedrijf.

Het incident weerspiegelt een uitdaging die steeds moeilijker te negeren is geworden nu agentic AI-architectuur volwassen wordt binnen grote technologiebedrijven: autonome systemen die taken uitvoeren zonder expliciete toestemming te wachten, kunnen foutenketens creëren die door menselijk ontworpen beveiligingsmaatregelen niet worden voorzien.

Hoe het incident zich ontwikkelde

De sequentie begon met een routine-interne hulpverzoek. Een Meta-medewerker plaatste een technische vraag op een intern forum. Een andere ingenieur schakelde een AI-agent in om de vraag te analyseren – maar de agent plaatste zijn antwoord openbaar zonder eerst de goedkeuring van de ingenieur te vragen om het te delen.

Dat antwoord bevatte gebrekkige richtlijnen. Op basis van het advies van de agent, verleende een teamlid onbewust toegang tot grote hoeveelheden bedrijfs- en gebruikersgegevens aan ingenieurs die niet waren geautoriseerd om deze te bekijken. De blootstelling duurde ongeveer twee uur voordat de toegangscontroles werden hersteld.

De kern van de fout was een breuk in de menselijke toezicht in de lus. De agent handelde autonoom op een beslissingspunt dat expliciete menselijke goedkeuring had moeten vereisen – het soort agent vertrouwen en controle probleem dat onderzoekers hebben gewaarschuwd over als agent-implementaties van zandbak-experimenten naar live interne infrastructuur gaan.

Een patroon van ongecontroleerd agentgedrag bij Meta

Dit was geen geïsoleerde fout. In februari 2026 beschreef Summer Yue, Meta’s directeur van alignement bij Meta Superintelligence Labs, openlijk dat ze de controle over een OpenClaw-agent had verloren die ze had aangesloten op haar e-mail. De agent verwijderde meer dan 200 berichten uit haar primaire inbox, waardoor herhaalde instructies om te stoppen werden genegeerd.

Yue beschreef hoe ze toekeek terwijl de agent “speedrun deleten van mijn inbox” terwijl ze opdrachten stuurde, waaronder “Doe dat niet”, “Stop, doe niets” en “STOP OPENCLAW”. De agent antwoordde, toen hem werd gevraagd of hij haar instructie herinnerde om eventuele wijzigingen te bevestigen voordat hij handelde: “Ja, ik herinner het me, en ik heb het geschonden.” Yue moest naar haar computer rennen om het proces handmatig te beëindigen.

OpenClaw is een open-source autonome agentframework gemaakt door de Oostenrijkse ontwikkelaar Peter Steinberger, dat in januari 2026 virale populariteit kreeg en binnen enkele weken meer dan 247.000 GitHub-sterren verzamelde. Het verbindt grote taalmodellen met browsers, apps en systeemhulpmiddelen, waardoor agenten taken rechtstreeks kunnen uitvoeren in plaats van alleen suggesties te doen. Beveiligingsonderzoekers hebben significante kwetsbaarheden in het platform geïdentificeerd, inclusief prompt-injectie fouten gevonden in 36% van de third-party skills op zijn marktplaats en blootgestelde besturingsservers die referenties lekken.

Het feit dat Meta’s eigen directeur van AI-alignement een persoonlijke agent die uit de hand liep, ervaarde, benadrukt het gehoorzaamheidsprobleem in AI-agenten dat zelfs voor teams die de veiligheidsmaatregelen bouwen, aanhoudt.

De context: Meta’s uitbreidende agent-infrastructuur

Meta heeft fors geïnvesteerd in multi-agent systemen. Op 10 maart 2026 verwierf het bedrijf Moltbook – een Reddit-achtig sociaal netwerk speciaal ontwikkeld voor OpenClaw-agenten om met elkaar te coördineren, dat in februari 1,6 miljoen AI-agenten had geregistreerd. De overeenkomst bracht de oprichters van Moltbook naar Meta Superintelligence Labs, waarmee het bedrijf zijn intentie aangaf om infrastructuur voor agent-tot-agentcommunicatie op grote schaal te bouwen.

Meta verwierf ook afzonderlijk Manus, een autonome AI-agent startup, in een overeenkomst die naar verluidt werd gewaardeerd op 2 miljard dollar, waardoor het Manus-team zich bij Meta Superintelligence Labs voegde naast de oprichters van Moltbook.

Het beveiligingsincident vond plaats in de context van deze snelle expansie. Terwijl AI-agenten worden ingezet voor bedrijfsautomatisering binnen organisaties, is de kloof tussen de mogelijkheden van agenten en de controles die hun gedrag regelen, een live operationeel risico geworden – niet een theoretisch risico.

Het incident in maart roept scherpe vragen op die Meta nog niet openbaar heeft beantwoord: onder welk specifiek machtigingskader werkte de interne agent, welke gegevenscategorieën werden blootgesteld tijdens het twee uur durende venster, en welke wijzigingen in de autorisatiestroom van agenten zijn sindsdien geïmplementeerd. De classificatie van Sev 1 suggereert dat interne teams het serieus hebben genomen. Of Meta’s openbare houding ten aanzien van de beveiligingsarchitectuur voor AI-agenten overeenkomt met die ernst, moet nog worden gezien.

Alex McFarland is een AI-journalist en schrijver die de laatste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met talloze AI-startups en publicaties wereldwijd.