Connect with us

Hvorfor AI-agenter i bedrifter møter et kunnskapsproblem, ikke et teknologiproblem

Tankeledere

Hvorfor AI-agenter i bedrifter møter et kunnskapsproblem, ikke et teknologiproblem

mm
A row of antique leather-bound books stands next to a glowing metal bookend featuring a purple light-up geometric structure on a wooden desk in a modern high-rise office at night.

I fjor rapporterte S&P Global at andelen bedrifter som oppga de fleste av sine AI-initiativ mer enn doblet, fra 17% til 42%. Før det publiserte Gartner en prognose for agentic AI-prosjekter: 40% av dem vil bli avsluttet innen utgangen av 2027.

Ifølge McKinsey & Company er nesten halvparten av alle bedrifter i ferd med å eksperimentere med AI-agenter. Men hvor mange har flyttet seg beyond pilotstadiet og er faktisk operative? Omtrent en av ti.

Bransjen har ingen mangel på forklaringer: modellhallusinasjoner, manglende styring, høye GPU-kostnader og en mangel på spesialister. Alle disse er reelle utfordringer. Men etter tre år med å arbeide med kunnskapsledningssystemer og AI-agenter ser jeg stadig mer en annen mønster: bedrifter som overfører ufullstendige data til sine agenter.

Som en doktor i pedagogiske vitenskaper ser jeg på dette som et kunnskapsoverføringsproblem. Hvis en person ikke kan forklare hvordan de tar beslutninger, kan deres logikk ikke overføres til en ny ansatt — eller til en AI-agent. La oss se på hvorfor dette skjer og hva som kan gjøres med det.

Hvor kunnskap om hvordan et selskap faktisk opererer befinner seg

Spør en stor bedrift hvor ansattkunnskap er lagret, og du vil høre en lang liste: Confluence, SharePoint, LMS-plattformer, FAQ-boter, Slack-arkiver. Det kan se ut som om dette er akkurat den stakken en RAG-system kan bruke til å hente alt det trenger. Men ett kritisk element mangler — kunnskapen som lever i folks hoder. Kunnskap som ingen noen gang har skrevet ned.

Hvorfor er dette et problem?

Fordi en AI-agent for å ta over en del av en arbeidsflyt — forstå konteksten, velge en handling og fullføre en oppgave — trenger ikke bare tilgang til en kunnskapsbase, men også beslutningslogikken som brukes av en erfaren spesialist.

Forestall en ny supportagent som mottar en forespørsel: en kunde hevder at de har betalt for en tjeneste, men tilgangen er ikke aktivert. Skriptet inkluderer en standardrekke trinn som ender med å be kunden vente. Men agenten legger merke til at situasjonen er uvanlig: kunden har allerede kontaktet support to ganger, og det er flere lignende saker i systemet i løpet av den siste timen. De kontakter en mer erfaren kollega, som forklarer at de har sett dette før og at problemet sannsynligvis er et feil ved交境 mellom betalingsportalen, banken og det interne aktiveringsystemet — så saken bør eskaleres til en annen avdeling.

For en AI-agent er denne logikken usynlig. Den kan ha tilgang til skriptet, billetthistorikken og betalingsstatusen hvis disse datakildene er koblet sammen, men den vet ikke hvilke signaler en erfaren operatør regner som avgjørende. Det er ikke slik at eksperter medvilning withhold denne kunnskapen. De kan bare ikke formalisere den eller bryte den ned i trinn: hvilke alternativer ble forkastet, hvorfor en bestemt handling ble valgt og på hvilket tidspunkt det ble klart at standardscenariet ikke lenger gjaldt. Kognitiv vitenskap refererer til dette fenomenet som tacid kunnskap — implisitt kunnskap som selv dens eier kanskje ikke er fullstendig klar over.

Dette er hvorfor flaskenhalen ikke oppstår på dokumenttilgangsnivå, men på stadiet hvor ekspertens erfaring konverteres til et format som er egnet for å trene en AI-agent.

Hva som kan gjøres med det

For å få en AI-agent til å fungere effektivt, er det ikke nok å bare koble en LLM til en bedrifts kunnskapsbase, fordi suksessfulle beslutninger ofte avhenger av tacid kunnskap. En kunnskapslag må først skapes, inkludert strukturerte beslutningskriterier.

I kunnskapsledning kalles denne prosessen eksternalisering — konvertering av tacid kunnskap til eksplisitt kunnskap. Med andre ord, et selskap må forstå ikke bare hva en ekspert gjør, men hvordan de tenker. Dette gjøres vanligvis gjennom en rekke dyptgående intervjuer med en topp-ekspert. Sammen med dem bør det være noen som er dyktig i å stille riktige spørsmål: en metodolog, kunnskapsingeniør eller instruksjonsdesignspesialist. Deres oppgave er ikke å skrive ned en “instruksjon basert på hva eksperten sier”, men å rekonstruere kriteriene for å velge mellom alternativer, bryte ned edge-cases og surface typiske feil som eksperten allerede håndterer automatisk.

Her kan AI hjelpe betydelig: transkribering av intervjuer, gruppering av lignende saker, omforming av ekspertforklaringer til utkastscenarier og generering av situasjoner for validering. Men den endelige strukturen må likevel bli gjennomgått og godkjent av eksperten.

Resultatet bør være en fungerende kunnskapskorpus. Den kan brukes i to retninger samtidig — til å trene nye ansatte og til å konfigurere en AI-agent. Begge scenariene avhenger av samme grunnlag: strukturert erfaring fra topp-spesialister.

Alternativet er å fortsette å stole på antagelsen om at RAG over Confluence på noen måte vil rekonstruere logikken som aldri ble dokumentert. I praksis fungerer dette nesten aldri: systemet kan hente en relevant dokument, men det vil ikke lære hvordan å ta beslutninger i situasjoner hvor riktig handling avhenger av kontekst og erfaring.

Hvordan å sjekke at en agent er klar til å fungere

Du har transformert ekspertkunnskap til scenarier og konfigurert agenten. Men det er et gap mellom agentens plausiblerespons og faktisk operasjonell ytelse — og dette gapet blir bare synlig under validering. På dette stadiet er det viktig å bestemme om du har faktisk fanget all nødvendig kunnskap.

En praktisk tilnærming er scenario-basert testing. Du gir agenten ekte saker fra en eksperts daglige arbeid: en kunde motsier en avgift, en uvanlig e-post ankommer eller en forespørsel dukker opp som ikke passer inn i grunnleggende skript. Resultatene bør ikke bli evaluert av en annen LLM, men av samme ekspert som hjalp med å bygge kunnskapskorpuset. Hvis agenten tar en annen vei enn den erfarne spesialisten, betyr det ikke alltid at modellen er svak. Mer ofte indikerer det at en kritisk regel, unntak eller eksempel mangler. I så fall går prosessen tilbake til begynnelsen: metodologen klarer logikken med eksperten, kunnskapskorpuset oppdateres, instruksjoner blir finjustert og testen blir gjentatt.

Denne syklusen er ikke et valgfritt steg, men en fase som definerer forskjellen mellom en agent som bare “demonstrerer potensiale” og en som faktisk utfører arbeid. Det er et langsomt og ikke særlig imponerende del av prosessen: det produserer ikke en flashy demo og krever deltakelse fra eksperter. Men de som går gjennom det systematisk ender opp med agenter som faktisk reduserer rutinearbeid for spesialister. De som hopper over det, innen seks måneder ofte finner seg selv i Gartners statistikk som forutser at 40% av prosjektene vil bli kansellert.

Agentic AI feiler ikke på grunn av teknologi — moderne modeller er allerede i stand til å utføre komplekse oppgaver. Det feiler fordi bedrifter “mater” det ufullstendig kunnskap. I 2024–2025 kunne dette fortsatt forklares av det eksperimentelle stadiet. I 2026 kommer denne feilen allerede med en høy pris.

Dmytro Korchevskyi er grunnlegger av Sintegrum, en AI-drevet HR-plattform som hjelper bedrifter med å automatisere rekruttering, onboarding, ansattetrening og kunnskapsforvaltning.

Han har også grunnlagt STEP IT Academy, et globalt utdanningsnettverk som opererer i 26 land, og har en doktorgrad i pedagogikk, med fokus på hvordan AI kan støtte skalerbar læring og arbeidskraftsutvikling.