Connect with us

Waarom AI-agents in bedrijven tegen een kennisprobleem aan lopen, niet tegen een technologieprobleem

Thought leaders

Waarom AI-agents in bedrijven tegen een kennisprobleem aan lopen, niet tegen een technologieprobleem

mm
A row of antique leather-bound books stands next to a glowing metal bookend featuring a purple light-up geometric structure on a wooden desk in a modern high-rise office at night.

Verleden jaar rapporteerde S&P Global dat het aandeel bedrijven dat de meeste van hun AI-initiatieven stopzet meer dan verdubbelde, van 17% naar 42%. Daarvoor publiceerde Gartner een prognose over agentic AI-projecten: 40% daarvan zal tegen het einde van 2027 worden stopgezet.

Volgens McKinsey & Company experimenteren bijna de helft van alle bedrijven met AI-agents. Maar hoeveel zijn daadwerkelijk verder gegaan dan de pilotfase en zijn operationeel? Ongeveer een op de tien.

De industrie heeft geen gebrek aan verklaringen: modelhallucinaties, gebrek aan governance, hoge GPU-kosten en een tekort aan specialisten. Al deze zijn echte uitdagingen. Maar na drie jaar werken met kennismanagementsystemen en AI-agents zie ik steeds vaker een ander patroon: bedrijven geven onvolledige gegevens door aan hun agents.

Als doctor in de pedagogische wetenschappen zie ik dit als een kennisoverdrachtsprobleem. Als een persoon niet kan uitleggen hoe hij beslissingen neemt, kan zijn logica niet worden overgedragen aan een nieuwe werknemer – laat staan aan een AI-agent. Laten we onderzoeken waarom dit gebeurt en wat eraan gedaan kan worden.

Waar kennis over hoe een bedrijf daadwerkelijk werkt, resideert

Vraag een groot bedrijf waar de kennis van werknemers wordt opgeslagen, en je krijgt een lange lijst: Confluence, SharePoint, LMS-platforms, FAQ-bots, Slack-archieven. Het kan lijken alsof dit precies de stack is die een RAG-systeem kan gebruiken om alles te verzamelen wat het nodig heeft. Maar een cruciaal element ontbreekt – de kennis die in mensen’s hoofden leeft. Kennis die nooit is opgeschreven.

Waarom is dit een probleem?

Omdat een AI-agent om een deel van een workflow over te nemen – de context te begrijpen, een actie te kiezen en een taak tot voltooiing te brengen – niet alleen toegang nodig heeft tot een kennisbasis, maar ook de beslissingslogica die door een ervaren specialist wordt gebruikt.

Stel je voor dat een nieuwe ondersteuningsagent een verzoek ontvangt: een klant claimt dat hij voor een dienst heeft betaald, maar de toegang is niet geactiveerd. Het script omvat een standaardset stappen die eindigt met het vragen van de klant om te wachten. Maar de agent merkt op dat de situatie ongebruikelijk is: de klant heeft al twee keer contact opgenomen met de ondersteuning en er zijn verschillende soortgelijke gevallen in het systeem in de afgelopen uur. Ze nemen contact op met een meer ervaren collega, die uitlegt dat ze dit eerder hebben gezien en dat het probleem waarschijnlijk een falen is op het snijvlak van de betalingspoort, de bank en het interne activatiesysteem – dus het geval moet worden geëscaleerd naar een andere afdeling.

Voor een AI-agent is deze logica onzichtbaar. Het kan toegang hebben tot het script, de ticketgeschiedenis en de betalingsstatus als deze gegevensbronnen zijn verbonden, maar het weet niet welke signalen een ervaren operator als beslissend beschouwt. Het is niet dat experts deze kennis expres achterhouden. Ze kunnen het gewoon niet formaliseren of opsplitsen in stappen: welke opties zijn uitgesloten, waarom is een bepaalde actie gekozen en op welk moment werd duidelijk dat het standaardscenario niet van toepassing was. Cognitieve wetenschappers verwijzen naar dit fenomeen als tacit kennis – impliciete kennis die zelfs de houder ervan misschien niet volledig bewust is.

Dit is waarom de bottleneck niet ontstaat op het niveau van toegang tot documenten, maar op het niveau van het omzetten van expertervaring in een formaat dat geschikt is voor het trainen van een AI-agent.

Wat eraan gedaan kan worden

Om een AI-agent effectief te laten werken, is het niet genoeg om alleen een LLM te verbinden met een corporate kennisbasis, omdat succesvolle beslissingen vaak afhankelijk zijn van tacit kennis. Een kennislaag moet eerst worden gecreëerd, inclusief gestructureerde beslissingscriteria.

In kennismanagement wordt dit proces genoemd externalisatie – het omzetten van tacit kennis in expliciete kennis. Met andere woorden, een bedrijf moet niet alleen weten wat een expert doet, maar ook hoe hij denkt. Dit gebeurt meestal door een serie diepgaande interviews met een topexpert. Naast hen moet iemand zijn die bedreven is in het stellen van de juiste vragen: een methodoloog, kennisengineer of instructieontwerper. Hun taak is niet om een “instructie op basis van wat de expert zegt” op te schrijven, maar om de criteria voor het kiezen tussen opties te reconstrueren, randgevallen te ontleden en typische fouten te traceren die de expert al automatisch afhandelt.

Hier kan AI aanzienlijk helpen: interviews transcriberen, soortgelijke gevallen groeperen, expertuitleg omzetten in conceptscenarios en situaties genereren voor validatie. Echter, de definitieve structuur moet nog steeds worden beoordeeld en goedgekeurd door de expert.

Het resultaat moet een operationele kenniscollectie zijn. Deze kan tegelijkertijd op twee manieren worden gebruikt – om nieuwe werknemers te trainen en om een AI-agent te configureren. Beide scenario’s zijn afhankelijk van dezelfde basis: gestructureerde ervaring van topspecialisten.

Het alternatief is om te blijven vertrouwen op de veronderstelling dat RAG over Confluence op de een of andere manier de logica kan reconstrueren die nooit is gedocumenteerd. In de praktijk werkt dit bijna nooit: het systeem kan een relevant document ophalen, maar het zal nooit leren hoe beslissingen te nemen in situaties waarin de correcte actie afhankelijk is van context en ervaring.

Hoe te controleren of een agent klaar is om te werken

Je hebt expertkennis omgezet in scenario’s en de agent geconfigureerd. Maar er is een kloof tussen de plausibele antwoorden van de agent en de echte operationele prestaties – en deze kloof wordt pas zichtbaar tijdens validatie. Op dit moment is het belangrijk om te bepalen of je daadwerkelijk alle benodigde kennis hebt vastgelegd.

Een praktische aanpak is scenario-gebaseerde testen. Je geeft de agent echte gevallen uit het dagelijkse werk van een expert: een klant betwist een factuur, een ongebruikelijke e-mail arriveert of een verzoek verschijnt dat niet past in het basis-script. De resultaten moeten niet worden beoordeeld door een andere LLM, maar door dezelfde expert die heeft geholpen bij het opbouwen van de kenniscollectie. Als de agent een andere route neemt dan de ervaren specialist, betekent dit niet altijd dat het model zwak is. Vaker geeft het aan dat een kritieke regel, uitzondering of voorbeeld ontbreekt. In dat geval gaat het proces terug naar het begin: de methodoloog verduidelijkt de logica met de expert, de kenniscollectie wordt bijgewerkt, instructies worden verfijnd en de test wordt herhaald.

Deze cyclus is geen optionele stap, maar een fase die het verschil definieert tussen een agent die alleen “potentieel toont” en een die daadwerkelijk werk verricht. Het is een langzame en niet erg indrukwekkende fase van het proces: het produceert geen flashy demo en vereist de betrokkenheid van experts. Maar wie dit systeemvolgend doorloopt, eindigt met agents die daadwerkelijk de routine-werklast voor specialisten verlagen. Wie dit overslaat, vindt zichzelf binnen zes maanden vaak in de statistieken van Gartner, die voorspelt dat 40% van de projecten zal worden geannuleerd.

Agentic AI faalt niet vanwege technologie – moderne modellen zijn al in staat om complexe taken uit te voeren. Het faalt omdat bedrijven het “voeren” met onvolledige kennis. In 2024-2025 kon dit nog worden verklaard door het experimentele stadium. In 2026 komt deze fout al met een hoge kostenpost.

Dmytro Korchevskyi is de oprichter van Sintegrum, een AI-gepowered HR-platform dat bedrijven helpt bij het automatiseren van werving, inwerkingtreding, medewerkerstraining en kennisbeheer.

Hij is ook de oprichter van STEP IT Academy, een wereldwijd onderwijsnetwerk dat actief is in 26 landen, en heeft een doctoraat in pedagogiek, met een focus op hoe AI schaalbaar leren en werkgelegenheidsontwikkeling kan ondersteunen.