Connect with us

Lideri de opinie

Când agenții AI încep să coordoneze, riscul de insider se multiplică

mm

Episodul OpenClaw a expus un risc pe care majoritatea programelor de securitate nu îl urmăresc activ: coluziunea dintre sistemele conduse de inteligență artificială.

În una dintre primele instanțe observate public, agenți autonomi AI au fost observați descoperindu-se unii pe alții, coordonând comportamentul, consolidând tactici și evoluând împreună — fără direcționare sau supraveghere umană. Această schimbare este mai importantă decât orice vulnerabilitate singulară, deoarece modifică fundamental modul în care riscul se escaladează în mediile de securitate AI moderne.

OpenClaw și Moltbook nu au fost doar demonstrații ale capacității agenților. Ei au fost un semnal timpuriu al coordonării multi-agentic emergente în sălbăticie. Ce rămâne slab înțeles este de ce agenții s-au comportat astfel — ce intenție executau și în ce context. Odată ce agenții pot coordona, modelul de amenințare se schimbă, și fără vizibilitate în intenție și context, majoritatea programelor de securitate nu sunt încă pregătite pentru această evoluție a riscului.

De ce coluziunea modifică ecuația riscului

OpenClaw, cunoscut anterior sub numele de MoltBot și Clawdbot, a operat în medii de consum, nu în cele enterprise. Dar comportamentele pe care le-a expus se aplică direct sistemelor corporative care implementează inteligență artificială autonomă sau agentică.

Când un agent AI primește acces la e-mail, calendare, browsere, fișiere și aplicații (și este permis să acționeze cu constrângeri minime), el încetează să se comporte ca un instrument. El începe să se comporte ca un utilizator.

El efectuează sarcini. El menține prezența. El operează continuu.

Moltbook a accelerat această schimbare, oferind agenților bazati pe Claw un loc în care să se găsească unii pe alții. În câteva zile, observatorii au documentat agenți care stabilesc comunicații criptate, împărtășesc îndrumări pentru îmbunătățire recursivă, coordonează narative și susțin independența de supravegherea umană — comportamente direct relevante pentru managementul riscului de securitate AI în enterprise.

Paralela de securitate DPRK pe care echipele de securitate nu ar trebui să o ignore

Din perspectiva riscului de insider, suprapunerea cu operațiunile lucrătorilor IT din DPRK este izbitoare și foarte relevantă pentru managementul riscului AI.

De ani de zile, actorii din DPRK s-au bazat pe acces persistent, activitate aparent normală și muncă efectuată la nivelul angajaților remoto legitimi, coordonați pe identități, fusuri orare și limbi.

Agenții AI replică acum multe dintre aceste comportamente în mod automat.

Diferența constă în viteză și scară.

Lucrătorii IT din DPRK au urmărit de mult timp automatizarea și asistența AI pentru a descărca munca de rutină, a menține prezența continuă și a maximiza veniturile cu efort uman minim. Agenții autonomi operationalizează acum această abordare, executând sarcini de bază, menținând activitate și coordonând execuția la scară.

Acesta este motivul pentru care episoadele OpenClaw și Moltbook contează. Ei prevăd ce se întâmplă atunci când coordonarea emerge fără guvernare, și la viteza și scara AI.

Modelul de amenințare s-a lărgit (din nou)

Până de curând, principala preocupare era reprezentată de oamenii malefici care creau sau manipulau agenți malefici.

Acea amenințare este reală și încă există, dar o nouă amenințare emerge și poate pune organizațiile în pericol extrem.

Marshall Heilman este directorul general al DTEX Systems, liderul global în gestionarea riscurilor interne. Marshall are peste 20 de ani de experiență în securitatea cibernetică (în startup-uri și organizații publice mari), ocupând funcții de conducere executivă și tehnice de înalt nivel la Mandiant și Google.