Connect with us

Varför AI-agenter i företag stöter på ett kunskapsproblem, inte ett tekniskt problem

Tankeledare

Varför AI-agenter i företag stöter på ett kunskapsproblem, inte ett tekniskt problem

mm
A row of antique leather-bound books stands next to a glowing metal bookend featuring a purple light-up geometric structure on a wooden desk in a modern high-rise office at night.

Förra året rapporterade S&P Global att andelen företag som övergav de flesta av sina AI-initiativ mer än fördubblades, från 17% till 42%. Innan dess publicerade Gartner en prognos om agenter för AI: 40% av dem kommer att stängas av vid slutet av 2027.

Enligt McKinsey & Company experimenterar nästan hälften av alla företag med AI-agenter. Men hur många har gått vidare från pilotstadiet och är faktiskt operativa? Ungefär en av tio.

Branschen har inga brist på förklaringar: modellhallucinationer, brist på styrning, höga GPU-kostnader och brist på specialister. Alla dessa är verkliga utmaningar. Men efter tre år av att ha arbetat med kunskapshanteringssystem och AI-agenter ser jag alltmer en annan mönster: företag som överför ofullständig data till sina agenter.

Som doktorn i pedagogiska vetenskaper ser jag detta som ett kunskapsöverföringsproblem. Om en person inte kan förklara hur de fattar beslut, kan deras logik inte överföras till en ny anställd – och än mindre till en AI-agent. Låt oss undersöka varför detta händer och vad som kan göras åt det.

Där kunskap om hur ett företag faktiskt fungerar finns

Fråga ett stort företag var anställdas kunskap lagras, och du kommer att få en lång lista: Confluence, SharePoint, LMS-plattformar, FAQ-botar, Slack-arkiv. Det kan verka som att detta är exakt den stack som ett RAG-system kan använda för att hämta allt det behöver. Men ett avgörande element saknas – kunskapen som lever i människors huvuden. Kunskap som aldrig har skrivits ner.

Varför är detta ett problem?

För att en AI-agent ska kunna ta över en del av en arbetsprocess – förstå sammanhanget, välja en åtgärd och utföra en uppgift till slut – behöver den inte bara tillgång till en kunskapsbas, utan också det beslutslogik som används av en erfaren specialist.

Föreställ dig en ny supportagent som får en begäran: en kund påstår att de har betalat för en tjänst, men åtkomsten har inte aktiverats. Skriptet innehåller en standarduppsättning steg som slutar med att fråga kunden att vänta. Men agenten märker att situationen är ovanlig: kunden har redan kontaktat supporten två gånger, och det finns flera liknande fall i systemet under den senaste timmen. De kontaktar en mer erfaren kollega, som förklarar att de har sett detta förut och att problemet troligen är ett fel vid skärningspunkten mellan betalningsporten, banken och det interna aktiveringsystemet – så fallet bör eskaleras till en annan avdelning.

För en AI-agent är denna logik osynlig. Den kan ha tillgång till skriptet, biljettshistoriken och betalningsstatusen om dessa datakällor är anslutna, men den vet inte vilka signaler en erfaren operatör anser är avgörande. Det är inte så att experter medvetet undanhåller denna kunskap. De kan helt enkelt inte formalisera den eller bryta ner den i steg: vilka alternativ som uteslöts, varför en viss åtgärd valdes och vid vilken punkt det blev klart att den standardiserade scenariot inte tillämpades. Kognitiva forskare kallar detta fenomen implicit kunskap – underförstådd kunskap som till och med dess innehavare kanske inte är fullständigt medveten om.

Detta är varför flaskhalsen inte uppstår på dokumenttillgångsnivån, utan på stadiet för omvandling av expertkunskap till ett format som lämpar sig för utbildning av en AI-agent.

Vad man kan göra åt det

För att en AI-agent ska fungera effektivt räcker det inte att bara ansluta en LLM till ett företags kunskapsbas, eftersom framgångsrika beslut ofta bygger på implicit kunskap. En kunskapslager måste först skapas, inklusive strukturerade beslutsregler.

I kunskapshantering kallas denna process externisering – omvandling av implicit kunskap till explicit kunskap. Med andra ord måste ett företag inte bara förstå vad en expert gör, utan också hur de tänker. Detta görs vanligtvis genom en serie djupgående intervjuer med en toppexpert. Tillsammans med dem bör det finnas någon som är skicklig på att ställa rätt frågor: en metodolog, kunskapsingenjör eller instruktionsdesignspecialist. Deras uppgift är inte att skriva ner en “instruktion baserad på vad experten säger”, utan att rekonstruera kriterierna för att välja mellan alternativ, bryta ner gränsfall och identifiera typiska misstag som experten redan hanterar automatiskt.

Här kan AI vara till stor hjälp: transkribera intervjuer, gruppera liknande fall, omvandla expertförklaringar till utkastscenarier och generera situationer för validering. Men den slutliga strukturen måste fortfarande granskas och godkännas av experten.

Resultatet bör vara en fungerande kunskapskorpus. Den kan användas i två riktningar samtidigt – för att utbilda nya anställda och för att konfigurera en AI-agent. Båda scenarierna bygger på samma grund: strukturerad erfarenhet från toppspecialister.

Alternativet är att fortsätta förlita sig på antagandet att RAG över Confluence på något sätt kommer att rekonstruera logik som aldrig har dokumenterats. I praktiken fungerar detta nästan aldrig: systemet kan hämta ett relevant dokument, men det kommer inte att lära sig att fatta beslut i situationer där den korrekta åtgärden beror på sammanhang och erfarenhet.

Hur man kan kontrollera att en agent är redo att arbeta

Du har omvandlat expertkunskap till scenarier och konfigurerat agenten. Men det finns ett gap mellan agentens trovärdiga svar och verklig operativ prestanda – och detta gap syns bara under validering. Vid detta stadium är det viktigt att avgöra om du har verkligen fångat all nödvändig kunskap.

En praktisk metod är scenariobaserad testning. Du ger agenten riktiga fall från en experts dagliga arbete: en kund ifrågasätter en avgift, ett ovanligt e-postmeddelande anländer eller en begäran dyker upp som inte passar det grundläggande skriptet. Resultaten bör inte utvärderas av en annan LLM, utan av samma expert som hjälpte till att bygga kunskapskorpusen. Om agenten tar en annan väg än den erfarna specialisten, betyder det inte alltid att modellen är svag. Mer ofta indikerar det att en kritisk regel, undantag eller exempel saknas. I så fall går processen tillbaka till början: metodologen förtydligar logiken med experten, kunskapskorpusen uppdateras, instruktioner förfinas och testet upprepas.

Denna cykel är inte ett valfritt steg, utan en fas som definierar skillnaden mellan en agent som bara “visar potential” och en som faktiskt utför arbete. Det är en långsam och inte särskilt imponerande del av processen: den producerar inte en imponerande demo och kräver expertmedverkan. Men de som går igenom det systematiskt slutar med agenter som verkligen minskar det rutinmässiga arbetet för specialister. De som hoppar över det hittar sig ofta i Gartners statistik, som förutspår att 40% av projekten kommer att avbrytas inom sex månader.

Agentic AI misslyckas inte på grund av tekniken – moderna modeller kan redan utföra komplexa uppgifter. Den misslyckas för att företag “matar” den ofullständig kunskap. År 2024-2025 kunde detta fortfarande förklaras av den experimentella fasen. År 2026 kommer detta misstag redan att kosta mycket.

Dmytro Korchevskyi är grundare av Sintegrum, ett AI-drivet HR-plattform som hjälper företag att automatisera rekrytering, onboarding, anställd utbildning och kunskapsförvaltning.
Han har också grundat STEP IT Academy, ett globalt utbildningsnätverk som verkar i 26 länder, och har en doktorandexamen i pedagogik, med fokus på hur AI kan stödja skalbar lärande och arbetsmarknadsutveckling.