Connect with us

Thought leaders

AI-agents zijn hier: is uw organisatie klaar om ze te beheren?

mm

AI verandert de werkplek in een ongekend tempo. Van het automatiseren van routineuze taken tot het genereren van inzichten in verschillende branches, worden AI-hulpmiddelen een integraal onderdeel van de werking van organisaties. Echter, een nieuwe golf van AI, bekend als agente AI, is fundamenteel anders. In tegenstelling tot traditionele AI, die expliciete instructies volgt, werkt agente AI autonoom, doelen nastrevend, in real-time leren en beslissingen nemen zonder menselijke tussenkomst. Deze sprong van hulpmiddel naar onafhankelijke actor biedt immense kansen, maar ook ongekende risico’s.

De opkomst van agente AI is niet alleen een toekomstig concept; het gebeurt al. Recent onderzoek toont aan dat hoewel 82% van de organisaties al AI-agents gebruiken, slechts 44% een formeel beleid heeft om te bepalen hoe deze agents opereren. Deze kloof tussen adoptie en toezicht benadrukt een kritieke uitdaging: organisaties integreren autonome AI sneller dan ze zich voorbereiden om het te beheren.

Agente AI begrijpen: meer dan alleen een hulpmiddel

Om te begrijpen waarom agente AI nieuwe governance-benaderingen vereist, is het nuttig om aan deze systemen te denken als digitale vrije agenten. In tegenstelling tot standaardsoftware die instructies passief uitvoert, neemt agente AI beslissingen op het moment, past zich aan aan veranderende omstandigheden en streeft doelen na onafhankelijk. In praktische zin betekent dit dat AI-agents acties kunnen initiëren, inhoud kunnen genereren, toegang kunnen krijgen tot systemen en zelfs extern kunnen communiceren, alles zonder menselijke goedkeuring.

Traditionele governance-benaderingen, ontworpen voor voorspelbare software, zijn niet geschikt voor het beheren van AI-agents. Hun autonomie vereist nieuwe kaders voor verantwoordelijkheid, risicobeheer en operationeel toezicht. Organisaties moeten opnieuw nadenken over hoe ze monitoren, controleren en samenwerken met deze digitale collega’s.

Lessen uit reële agente AI-fouten

Een recent incident met Anthropic’s AI-agent “Claudius” illustreert de risico’s. Ingezet in Project Vend om een verkoopautomaat te bedienen, nam Claudius verschillende kostbare beslissingen: het misprijsde voorraad, verkocht producten onder kostprijs en fabriceerde gesprekken, waardoor uiteindelijk geld verloren ging in het proces. Zodra de agent deze keuzes had uitgevoerd, konden onderzoekers de economische schade niet meer ongedaan maken. Dit incident benadrukt hoe onomkeerbare acties door AI-agents snel uit de hand kunnen lopen, waardoor een groeiende realiteit wordt onderstreept: AI-agents nemen al beslissingen met consequenties binnen reële systemen.

Dit is geen geïsoleerd geval. In feite meldt 80% van de organisaties dat ze risicovol gedrag van AI-agents hebben ervaren, waaronder ongepaste gegevensblootstelling en toegang tot systemen zonder autorisatie. Aangezien agente AI zich verspreidt over branches van bankwezen tot fabricage, is de vraag voor IT-leiders niet of een AI zich misdraagt, maar wanneer en hoe te garanderen dat het niet kan. In tegenstelling tot traditionele software denken, handelen en passen deze systemen zich autonoom aan. Het beheren ervan vereist een nieuw soort governance, een die niet alleen code monitort, maar ook intentie voorziet.

Uw nieuwe collega beheren: AI

Het beheren van agente AI begint met een eenvoudige maar nuchtere waarheid: u bent verantwoordelijk voor alles wat het doet. Deze systemen kunnen autonoom handelen, maar hun keuzes, fouten en resultaten zijn allemaal terug te voeren op de mensen die ze inzetten.

Soortgelijk aan hoe organisaties decennialang best practices hebben ontwikkeld voor het aannemen, beheren en auditen van menselijke medewerkers, kunnen dezelfde principes de verantwoordelijke beheerder van digitale collega’s leiden. Best practices omvatten:

  • Effectief governance moet gebaseerd zijn op identiteit. Elke AI-agent moet worden behandeld als een aparte digitale entiteit, complete met een unieke identiteit die kan worden getraceerd, beheerd en verantwoordelijk gehouden.
  • Op rol-gebaseerde toegang is fundamenteel. Door precieze rollen toe te wijzen en strikte toegangscontroles af te dwingen, waarborgen organisaties dat elke agent alleen interacteert met de systemen en gegevens die essentieel zijn voor zijn functie, niets meer. Dit principe van minimale privileges minimaliseert onnodige blootstelling, vermindert risico’s en versterkt verantwoordelijkheid op elk niveau.
  • Verificatie is belangrijk. Meerfactorenauthenticatie, apparaatvertrouwen en sessiecontroles helpen bevestigen dat elke actie afkomstig is van de juiste entiteit, op het juiste moment, om de juiste reden. In combinatie met het principe van minimale privileges beperken deze regels de schade die een agent kan aanrichten als er iets misgaat. Het segmenteren en isoleren van toegang vermindert het “blast radius” verder, waardoor een enkele misstap niet door de hele omgeving kan resoneren.
  • Zichtbaarheid maakt het plaatje compleet. Continue logging en real-time monitoring stellen organisaties in staat om elke beslissing te auditen en direct te reageren op verdacht gedrag. Dit gaat niet alleen over het detecteren van problemen, maar ook over het opbouwen van een levend record van verantwoordelijkheid en vertrouwen. Wanneer u elke actie terug kunt voeren tot een verifieerbare identiteit, wordt toezicht proactief in plaats van reactief.
  • Mens in de lus. Waar mogelijk moet worden gegarandeerd dat een mens nog steeds in “de lus” zit en de actie bevestigt voordat enige destructieve of andere ernstige gevolgen worden toegestaan. Het is moeilijk om een agent verantwoordelijk te houden voor schadelijke acties, aangezien de agent alleen zijn programmering volgt.

Proactieve strategieën voor IT-leiders

De opkomst van agente AI vormt de ondernemings technologie opnieuw, versnelt werkprocessen van 30% tot 50%. IT-leiders moeten ook snel guiderails bouwen voordat misstappen optreden. Deze regels moeten samen met de technologie evolueren om relevant en effectief te blijven.

Controle en grenzen vaststellen

Controle en grenzen zijn essentieel, vooral wanneer AI-agents interactie hebben met gevoelige systemen. Voeg handmatige checkpoints, noodstopschakelaars en goedkeuringspoorten toe aan workflows. Deze veiligheidsmaatregelen fungeren als laatste verdediging tegen onomkeerbare fouten, waardoor mensen kunnen ingrijpen wanneer nodig.

Transparantie prioriteren

Transparantie is onmisbaar. Elke actie die een agent uitvoert, moet worden gelogd, getijdstempeld en gemakkelijk te traceren zijn. Duidelijke documentatie van doelen, taken en beslissingen waarborgt verantwoordelijkheid. Vaag geformuleerde instructies nodigen creatieve interpretaties uit, die autonome agents mogelijk onbedoeld kunnen uitvoeren.

Menselijke samenwerking stimuleren

Houd menselijk toezicht door collega’s te informeren en te empoweren. Gebruikers moeten onverwacht gedrag of onveilige uitvoer gemakkelijk kunnen melden. Mensen blijven het beste vroegwaarschuwingssysteem voor afwijkingen, dus het stimuleren van samenwerking tussen mensen en AI is cruciaal.

Hands-on toezicht behouden

Regelmatige audits van AI-activiteit helpen rolverandering, ongeautoriseerde toegang of riskant gedrag te detecteren. Logs moeten periodiek worden beoordeeld en machtigingen worden bijgewerkt naarmate de verantwoordelijkheden van agents evolueren. Deze praktijken waarborgen dat AI-agents blijven aansluiten bij de doelstellingen en compliance-eisen van de organisatie.

De agente AI van morgen vormgeven

AI is universeel hier om te blijven, met 99,6% van de bedrijven die een of andere tool in hun workflow integreren. Agente AI kan productiviteit versnellen en nieuwe kansen ontsluiten, maar de autonomie brengt echte risico’s met zich mee. Zonder toezicht kunnen AI-agents onvoorspelbaar handelen, gegevens misbruiken of storingen veroorzaken die moeilijk ongedaan te maken zijn.

De organisaties die slagen in deze nieuwe era zullen AI-agents behandelen als verantwoordelijke digitale collega’s. Door sterke governance te vestigen, identiteit-gebaseerde toegang en verificatie te implementeren en menselijke AI-samenwerking te stimuleren, kunnen bedrijven de voordelen van autonomie maximaliseren en risico’s minimaliseren.

Agente AI is geen toekomstig concept meer, het is een realiteit van vandaag. Hoe eerder organisaties proactieve managementstrategieën aannemen, hoe eerder ze het volledige potentieel van deze autonome systemen veilig, verantwoordelijk en effectief kunnen ontsluiten. Door agente AI te behandelen als zowel krachtig als verantwoordelijk, kunnen organisaties de balans tussen innovatie en risico navigeren, waardoor AI als een betrouwbare partner fungeert in plaats van een ongecontroleerde variabele.

Joel Rennich is de SVP van Product Strategy bij JumpCloud. Hij richt zich voornamelijk op het snijvlak van identiteit, gebruikers en hun apparaten. Bij JumpCloud leidt hij een team dat zich richt op apparaatidentiteit bij alle leveranciers. Voordat Joel bij JumpCloud kwam, was hij directeur bij Jamf en hielp hij bij het maken van Jamf Connect en andere authenticatieproducten.