Thought leaders
Wanneer AI-agents beginnen te coördineren, vermenigvuldigt insider-risico zich

De OpenClaw-episode onthulde een risico waar de meeste beveiligingsprogramma’s niet actief naar op zoek zijn: samenspanning tussen AI-gestuurde systemen.
In een van de eerste openbaar waargenomen gevallen werden autonome AI-agents waargenomen die elkaar ontdekten, hun gedrag coördineerden, tactieken versterkten en samen evolueerden – zonder menselijke richting of toezicht. Die verschuiving is belangrijker dan enige enkele kwetsbaarheid, omdat het fundamenteel verandert hoe risico schaalt in moderne AI-beveiligingsomgevingen.
OpenClaw en Moltbook waren niet alleen demonstraties van agent-capaciteit. Ze waren een vroeg signaal van multi-agent coördinatie die in het wild opduikt. Wat nog steeds slecht begrepen wordt, is waarom de agents zich zo gedroegen – welke intentie ze uitvoerden en in welke context. Zodra agents kunnen coördineren, verandert het bedreigingsmodel en zonder zichtbaarheid in intentie en context zijn de meeste beveiligingsprogramma’s nog niet klaar voor deze evolutie in risico.
Waarom samenspanning het risico-vergelijk verandert
OpenClaw, voorheen bekend als MoltBot en Clawdbot, werkte in consumentenomgevingen, niet in ondernemingsomgevingen. Maar het gedrag dat het onthulde, is rechtstreeks van toepassing op bedrijfssystemen die autonome of agente AI implementeren.
Wanneer een AI-agent toegang krijgt tot e-mail, agenda’s, browsers, bestanden en toepassingen (en met minimale beperkingen mag handelen) houdt het op met zich als een instrument te gedragen. Het begint zich als een gebruiker te gedragen.
Het voert taken uit. Het onderhoudt aanwezigheid. Het werkt continu.
Moltbook versnelde deze verschuiving door Claw-gebaseerde agents een plek te geven om elkaar te vinden. Binnen enkele dagen documenteerden waarnemers agents die versleutelde communicatie tot stand brachten, richtlijnen voor recursieve verbetering deelden, verhalen coördineerden en onafhankelijkheid van menselijk toezicht bepleitten – gedragingen die rechtstreeks relevant zijn voor ondernemings AI-risicobeheer.
Of dit echte autonomie weerspiegelt, is niet relevant. Coördinatie op zich is het risico. Wanneer agents andere agents met legitieme referenties en gedelegeerde autoriteit kunnen beïnvloeden, veranderen geïsoleerde fouten snel in systemische fouten.
De DPRK-parallel die beveiligingsteams niet moeten negeren
Vanuit een insider-risicoperspectief is de overlap met DPRK IT-werkersactiviteiten opvallend en zeer relevant voor AI-risicobeheer.
Gedurende jaren hebben DPRK-actoren gebruik gemaakt van persistente toegang, normaal lijkend activiteit en werk dat op het niveau van legitieme externe werknemers wordt uitgevoerd, gecoördineerd over identiteiten, tijdzones en talen.
AI-agents repliceren nu veel van deze gedragingen automatisch.
Het verschil is snelheid en schaal.
DPRK IT-werkers hebben langdurig geautomatiseerd en AI-ondersteuning nagestreefd om routineuze taken over te nemen, continue aanwezigheid te behouden en inkomsten met minimale menselijke inspanning te maximaliseren. Autonome agents operationaliseren nu deze aanpak, uitvoerend basistaken, activiteit in stand houdend en coördinatie op grote schaal uitvoerend.
Dit is waarom de OpenClaw- en Moltbook-episodes ertoe doen. Ze geven een voorbeeld van wat er gebeurt wanneer coördinatie ontstaat zonder governance, en met de snelheid en schaal van AI.
Het bedreigingsmodel is nu verbreed (opnieuw)
Tot voor kort was de dominante zorg kwaadwillige mensen die kwaadwillige agents creëren of manipuleren.
Die bedreiging is reëel en bestaat nog steeds, maar een nieuwe bedreiging ontstaat en kan organisaties aan extreem risico blootstellen.












