Tankeledere
Hvorfor AI-agenter i virksomheder støder på et videnproblem, ikke et teknologiproblem

Sidste år rapporterede S&P Global, at andelen af virksomheder, der opgiver de fleste af deres AI-initiativer, mere end fordobledes, fra 17% til 42%. Før det offentliggjorde Gartner en prognose for agentic AI-projekter: 40% af dem vil blive lukket ned inden udgangen af 2027.
Ifølge McKinsey & Company er næsten halvdelen af alle virksomheder i gang med at eksperimentere med AI-agenter. Men hvor mange er gået videre fra pilotstadiet og er faktisk operative? Omkring en tiendedel.
Branchen har ingen mangel på forklaringer: modelhallucinationer, mangel på styring, høje GPU-omkostninger og en mangel på specialister. Alle disse er reelle udfordringer. Men efter tre år med at arbejde med videnledningssystemer og AI-agenter ser jeg stadig mere en anden mønster: virksomheder, der giver deres agenter ufuldstændige data.
Som doktor i pædagogiske videnskaber ser jeg dette som et vidensoverførselsproblem. Hvis en person ikke kan forklare, hvordan de træffer beslutninger, kan deres logik ikke overføres til en ny medarbejder – endsige til en AI-agent. Lad os udforske, hvorfor dette sker, og hvad der kan gøres ved det.
Hvor viden om, hvordan en virksomhed faktisk opererer, befinder sig
Spørg en stor virksomhed, hvor medarbejderviden er gemt, og du vil høre en lang liste: Confluence, SharePoint, LMS-platforme, FAQ-bots, Slack-arkiver. Det kan se ud, som om dette er præcis den stack, et RAG-system kan bruge til at hente alt, det behøver. Men en afgørende komponent mangler – viden, der lever i menneskers hoveder. Viden, der aldrig er blevet skrevet ned.
Hvorfor er dette et problem?
Fordi en AI-agent for at overtage en del af en arbejdsproces – forstå konteksten, vælge en handling og gennemføre en opgave – ikke kun behøver adgang til en videnbas, men også den beslutningslogik, der bruges af en erfaren specialist.
Forestil dig en ny supportagent, der modtager en anmodning: en kunde hævder, at de har betalt for en service, men adgangen er ikke blevet aktiveret. Manuskriptet indeholder en standardrække af trin, der ender med at bede kunden om at vente. Men agenten lægger mærke til, at situationen er usædvanlig: kunden har allerede kontaktet support to gange, og der er flere lignende sager i systemet over de seneste timer. De kontakter en mere erfaren kollega, der forklarer, at de har set dette før, og at problemet sandsynligvis er et sammenbrud mellem betalingsgatewayen, banken og det interne aktiveringssystem – så sagen skal eskaleres til en anden afdeling.
For en AI-agent er denne logik usynlig. Den kan have adgang til manuskriptet, billetthistorikken og betalingsstatus, hvis disse datakilder er tilsluttet, men den ved ikke, hvilke signaler en erfaren operatør betragter som afgørende. Det er ikke, fordi eksperter bevidst holder denne viden tilbage. De kan bare ikke formalisere den eller bryde den ned i trin: hvilke muligheder blev afvist, hvorfor en bestemt handling blev valgt, og på hvilket tidspunkt det blev klart, at den standard-scenarie ikke kunne anvendes. Kognitionsforskere kalder dette fænomen tacit viden – implicit viden, som selv dens indehaver måske ikke er fuldt bevidst om.
Dette er hvorfor flaskenhalen ikke opstår på dokumentadgangsniveau, men på det stadium, hvor eksperterfaring konverteres til et format, der er egnet til at træne en AI-agent.
Hvad der kan gøres ved det
For at gøre en AI-agent arbejdende effektivt er det ikke nok at blot tilslutte en LLM til en virksomheds videnbas, fordi succesfulde beslutninger ofte afhænger af tacit viden. En videnlag skal først oprettes, herunder struktureret beslutningskriterier.
I videnledning kaldes denne proces eksternalisering – konvertering af tacit viden til explicit viden. Med andre ord skal en virksomhed ikke kun forstå, hvad en ekspert gør, men hvordan de tænker. Dette gøres typisk gennem en række dybdegående interviews med en top-ekspert. Ved siden af dem skal der være nogen, der er dygtig til at stille de rigtige spørgsmål: en metodelog, videningeniør eller instruktionsdesignspecialist. Deres opgave er ikke at skrive en “instruktion baseret på, hvad eksperten siger”, men at genskabe kriterierne for at vælge mellem muligheder, bryde ned kanter, og fremhæve typiske fejl, som eksperten allerede håndterer automatisk.
Her kan AI hjælpe betydeligt: transkription af interviews, gruppering af lignende sager, omdannelse af ekspertforklaringer til udkastscenarier og generering af situationer til validering. Men den endelige struktur skal stadig gennemgås og godkendes af eksperten.
Resultatet skal være en fungerende videnkorpus. Det kan bruges i to retninger på samme tid – til at træne nye medarbejdere og til at konfigurere en AI-agent. Begge scenarier afhænger af samme grundlag: struktureret erfaring fra top-specialister.
Alternativet er at fortsætte med at afhænge af antagelsen, at RAG over Confluence på en eller anden måde kan genskabe logik, der aldrig er blevet dokumenteret. I praksis virker dette næsten aldrig: systemet kan hente en relevant dokument, men det vil ikke lære, hvordan man træffer beslutninger i situationer, hvor den korrekte handling afhænger af kontekst og erfaring.
Hvordan man kan kontrollere, om en agent er klar til at arbejde
Du har transformeret ekspertviden til scenarier og konfigureret agenten. Men der er et gap mellem agentens plausibler svar og reel operationel præstation – og dette gap bliver kun synligt under validering. På dette stadium er det vigtigt at afgøre, om du har fanget alle nødvendige viden.
En praktisk tilgang er scenariebaseret test. Du giver agenten rigtige sager fra en eksperts daglige arbejde: en kunde bestrider en opkrævning, en usædvanlig e-mail ankommer, eller en anmodning dukker op, der ikke passer med det grundlæggende manuskript. Resultaterne skal ikke vurderes af en anden LLM, men af samme ekspert, der hjalp med at bygge videnkorpusset. Hvis agenten tager en anden vej end den erfaren specialist, betyder det ikke altid, at modellen er svag. Mere ofte indikerer det, at en kritisk regel, undtagelse eller eksempel mangler. I så fald går processen tilbage til begyndelsen: metodelogeren klargør logikken med eksperten, videnkorpusset opdateres, instruktionerne forfineres, og testen gentages.
Dette cyklus er ikke et valgfrit skridt, men en fase, der definerer forskellen mellem en agent, der blot “demonstrerer potentiale”, og en, der faktisk udfører arbejde. Det er en langsom og ikke særlig imponerende del af processen: det producerer ikke en flot demo og kræver eksperters involvering. Men de, der gennemgår det systematisk, ender med agenter, der faktisk reducerer det rutinemæssige arbejdslæs for specialister. De, der springer det over, finder sig ofte selv i Gartners statistik, der forudsiger, at 40% af projekterne vil blive annulleret.
Agentic AI fejler ikke på grund af teknologi – moderne modeller er allerede i stand til at udføre komplekse opgaver. Det fejler, fordi virksomheder “fodrer” det med ufuldstændig viden. I 2024-2025 kunne dette stadig forklares af den eksperimenterende fase. I 2026 kommer denne fejl allerede med en høj pris.












