Connect with us

De architectuurverschuiving die nodig is om AI-agents te beheersen

Thought leaders

De architectuurverschuiving die nodig is om AI-agents te beheersen

mm
A photorealistic widescreen image of a technician viewed from behind, seated at a dark command center with multiple monitors. A large glass wall in front of him displays a complex, glowing architectural blueprint made of blue and green light. The hologram features intricate pathways, interconnected nodes, and two small silhouettes of figures standing together, representing a human and an AI

AI is niet langer alleen een chatbot die tekst genereert. In enterprise-omgevingen nemen AI-agents acties zoals het ophalen van gevoelige gegevens, het triggeren van workflows, het bellen van tools en het loggen van activiteiten over systemen. Autonomie verandert de governance-discussie volledig; controles en procedures die oorspronkelijk waren ontworpen voor menselijke gebruikers en traditionele applicaties waren niet gebouwd om software te beheersen die multi-step acties kan uitvoeren op runtime.

Het risico is niet theoretisch. Kleine gaten in zichtbaarheid, toegangscontrole en auditeerbaarheid kunnen snel omslaan in runtime-fouten die moeilijk te detecteren en nog moeilijker te herstellen zijn.

Om bij te blijven met deze nieuwe era, kan het beheersen van AI-agents niet worden gedaan door meer beleidsdocumenten toe te voegen. Het vereist governance by design: een architectuurbenadering waarin controles zijn ingebed in de control plane en continu op runtime worden afgedwongen. Als agents gaan handelen als digitale collega’s, moeten ze dezelfde enterprise-beveiligingsmaatregelen erven als mensen, plus sterkere runtime-toezicht.

Waarom governance faalt in de era van convergentie

Enterprise-architectuur is een era van convergentie ingegaan. Gegevens en workloads omvatten nu meerdere clouds, private datacenters en edge-omgevingen.

Er zijn organisaties die hun platforms in parallelle systemen uitvoeren omdat ze meerdere processen moeten beheren. Dit omvat separate identiteitssystemen, loggingspijpen, catalogi en goedgekeurde processen. Het resultaat is wat sommigen een “Frankenstein-platform” noemen, waarbij de integratie-overhead toeneemt met elke nieuwe tool of cloud-omgeving. In feite komt deze fragmentatie in de alledaagse realiteit naar voren.

Volgens een recente enquête noemen 47% van de respondenten ingewikkelde toegangsvereisten en processen, en 44% noemen beperkte zichtbaarheid in waar gegevens zich bevinden als barrières voor het effectief gebruiken van gegevens.

Dit is precies waar agents de naden tussen systemen blootleggen.

Om een zakelijke vraag te beantwoorden, moet een agent mogelijk gegevens ophalen uit een on-premises ERP-systeem, een cloud-CRM, operationele telemetrie in een andere cloud en documenten in een collaboratiesuite. Als de organisatie beleid op verschillende manieren afwijkt, zal de agent falen of, erger nog, slagen op manieren die u niet kunt verklaren of controleren.

Dit is het moment waarop enterprise-leiders aandacht moeten besteden. Agents dwingen een hogere lat af die consistentie over omgevingen en aansprakelijkheid op runtime vereist.

Governance, om deze reden, wordt in de schijnwerpers getrokken door regulators en beveiligingsagentschappen. Een voorbeeld hiervan is de NIST AI Risk Management Framework, dat risicobeheer benadrukt over de gehele AI-levenscyclus, niet alleen bij de build-time. Het is een herinnering dat compliance en vertrouwen operationele verantwoordelijkheden zijn, niet eenmalige checklists.

Van beleid naar platform

Governance by design betekent dat governance meereist met de workload in plaats van opnieuw te worden geïmplementeerd in elke silo. In de praktijk hangt dit af van drie bouwstenen:

  • Een unified control plane

Een plek om identiteit, toegang, beleid, catalogi en entitlements te definiëren en af te dwingen over clouds en datacenters.

Het doel is om beleid eenmaal te schrijven en af te dwingen waar gegevens en modellen worden uitgevoerd, in plaats van controle-systemen opnieuw op te bouwen voor elk systeem. Dit voorkomt agent-gedragsafwijking, waarbij dezelfde agent veilig handelt in één omgeving maar gevaarlijk in een andere.

Een praktische test is eenvoudig: als een gebruiker geen toegang heeft tot een kolom, moet worden geverifieerd of een agent die namens hem handelt evenmin toegang heeft. Dit moet aangeven of het geschreven beleid wordt afgedwongen over de gehele plane.

  • Een data fabric gebaseerd op open standaarden

Agents hebben context nodig om te opereren. Wanneer die context over verschillende structuren is verspreid die worden bezeten door verschillende teams, helpt een data fabric om semantiek en toegangspatronen te standaardiseren, zodat agents niet een nieuwe set regels hoeven te leren voor elke dataset.

Open tabelformaten zoals Apache Iceberg ondersteunen dit door meerdere engines toe te staan om dezelfde beheerde gegevens te delen zonder ze te kopiëren naar een nieuwe silo. Dit is belangrijk omdat gegevensduplicatie is waar governance meestal faalt. Zodra teams beginnen met het kopiëren van “alleen wat de agent nodig heeft”, hebt u een nieuwe, minder beheerde omgeving gecreëerd.

Als agents over datasets kunnen opereren zonder nieuwe toegangslekken te introduceren, werkt governance zoals bedoeld.

  • Real-time observability en lineage

Agents zijn alleen beheersbaar als u kunt zien wat ze doen op runtime.

Observability hier is niet alleen een “nice-to-have”, maar is de basis voor runtime-controles en incidentrespons.

Specifiek moet er eind-tot-eind-bewijs zijn van agent-acties. Agents moeten in staat zijn om acties te bewijzen, zoals welke gegevens zijn geopend en welke tools zijn gebeld, en van daaruit kan lineage outputs verbinden met inputs. Dit stelt teams in staat om beslissingen te auditen en fouten op te sporen, indien nodig, en zo algehele compliance te bewijzen.

Behandel agents als “digitale collega’s”

Een van de meest bruikbare mentale modellen is het behandelen van agents als digitale collega’s.

Hier is een vergelijking die dit uiteenlegt: net zoals werknemers toegangsbewijzen hebben die toegang geven tot bepaalde gebouwen en kamers, maar niet anderen, stelt governance agents in staat om toegang te hebben met beperkingen. Een belangrijke toevoeging is dat agents situationeel bewust moeten zijn van wat ze mogen onthullen.

Bedenk een supportagent. Het kan toegang nodig hebben tot eerder supportcases om een probleem op te lossen, maar het kan geen privégegevens van een andere klant lekken tijdens het doen. Anders gezegd, de agent kan beperkte kennis gebruiken om te redeneren, maar moet nog steeds onthullingsgrenzen afdwingen. Dit is geen “prompt-schrijfprobleem” dat we historisch hebben gekend hoe we het moeten navigeren; in plaats daarvan is het een identiteits- en runtime-afdwingingsprobleem.

Wat verandert in 2026: agents verhuizen van experimenten naar productie

2026 is het jaar waarin experimenten eindigen en agents de productieplaats innemen.

Deze verschuiving dwingt ondernemingen om op twee snelheden te opereren. De ene is innovatiesnelheid, waarbij teams nieuwe modellen, tools en agent-workflows testen om een concurrentievoordeel te behalen. En de andere is de beveiligingssnelheid, waarbij systemen moeten voldoen aan compliance- en operationele vereisten, die strikte toegangscontroles en blinde vlekken kunnen omvatten.

Zonder een architectuur voor governance, zullen deze twee snelheden in conflict komen.

Als teams agents implementeren voordat ze worden beheerst, zal er een patchwork van eenmalige controles en operationele fouten ontstaan. En als het tegenovergestelde gebeurt, krijg je een foutmodus waarin beveiliging alles blokkeert en innovatie verhuist naar shadow IT, waardoor governance wordt ondermijnd.

Het doel is niet om een snelheid te kiezen. Het is om een architectuur te bouwen die beide ondersteunt.

Een praktische checklist voor het beheersen van agents op runtime

  • Als u agents bouwt of schaalt, is het essentieel om uzelf de volgende vragen te stellen om te zien of governance echt architecturaal is: Kunt u end-to-end uitleggen welke gegevens een agent heeft opgehaald om een antwoord te geven of een actie uit te voeren?
  • Zijn toegangsbeslissingen consistent over hybride omgevingen, of verschillen ze per platform?
  • Heeft u telemetrie voor agent-acties, inclusief tool-calls, beleidscontroles en menselijke escalaties?
  • Kunt u een agent op runtime afremmen, pauzeren of in quarantaine plaatsen als deze onverwacht gedraagt?
  • Heeft u een post-deployment monitoring-plan dat overeenkomt met uw regelgevingsverplichtingen en risicobereidheid?

Als u deze vragen niet kunt beantwoorden, moet u uw agent-implementatie behandelen als een productiefout die op het punt staat te gebeuren.

De governance-shift moet architecturaal zijn, anders bestaat het niet

Agents zullen een standaardonderdeel worden van enterprise-operaties. De vraag is of ze een betrouwbaar onderdeel zullen worden van enterprise-operaties.

Als agents niet worden beheerst met minstens even veel vertrouwen als mensen en mission-critical software, zullen de gevolgen echt zijn. We zullen die gevolgen zien in gegevenslekken, compliance-falen, operationele uitval en verlies van vertrouwen in AI-programma’s.

Leiders moeten ophouden met het behandelen van agent-governance als een documentatie-oefening. Naarmate platform-capaciteiten uitbreiden, moet agent-governance een van degenen zijn die toezicht houdt op andere rollen. Dit betekent het inbedden van controles in de control plane, het maken van acties observeerbaar en beslissingen auditeerbaar. En dan schalen.

Dat is hoe u agents krijgt die snel gaan zonder de onderneming te breken.

Sergio Gago is CTO van Cloudera, met meer dan 20 jaar ervaring in AI/ML, kwantumcomputing en data-gedreven architectuur. Eerder was hij Managing Director van AI/ML & Quantum bij Moody's Analytics, en hij heeft ook CTO-rollen gehad bij Rakuten, Qapacity en Zinio. Sergio is een sterke voorstander van vertrouwd data-infrastructuur, en gelooft dat AI tegen 2030 zal evolueren tot het besturingssysteem van het bedrijf.