Myslitelé
Proč agenti AI v podnikání narazí na problém s znalostmi, ne s technologií

Minulý rok společnost S&P Global ohlásila, že podíl společností, které opustily většinu svých iniciativ AI, se více než zdvojnásobil, z 17 % na 42 %. Předtím společnost Gartner publikovala prognózu agentic AI projektů: 40 % z nich bude ukončeno do konce roku 2027.
Podle McKinsey & Company téměř polovina všech společností experimentuje s agenty AI. Ale kolik z nich se dostalo beyond pilotní fáze a skutečně funguje? Asi jeden z deseti.
Průmysl nemá nedostatek vysvětlení: halucinace modelů, nedostatek řízení, vysoké náklady na GPU a nedostatek specialistů. Všechny tyto jsou skutečné výzvy. Ale po třech letech práce se systémy znalostního managementu a agenty AI vidím stále častěji jiný vzorec: společnosti předávají svým agentům neúplné údaje.
Jako doktor pedagogických věd považuji tento problém za problém přenosu znalostí. Pokud člověk nemůže vysvětlit, jak dělá rozhodnutí, jeho logika nemůže být přenesena na nového zaměstnance – natož na agenta AI. Pojďme prozkoumat, proč k tomu dochází a co lze proti tomu udělat.
Where knowledge about how a company actually operates resides
Zeptejte se velké společnosti, kde je uložena znalost zaměstnanců, a uslyšíte dlouhý seznam: Confluence, SharePoint, LMS platformy, FAQ boty, Slack archivy. Může se zdát, že toto je přesně ten stack, který systém RAG může použít k načtení všeho, co potřebuje. Ale jeden zásadní prvek chybí – znalosti, které žijí v hlavách lidí. Znalosti, které nikdo nikdy nezapsal.
Proč je to problém?
Protože pro to, aby agent AI převzal část pracovního postupu – pochopil kontext, zvolil akci a dokončil úkol – potřebuje nejen přístup k znalostní bázi, ale také logiku rozhodování, kterou používá zkušený specialista.
Představte si nového agenta podpory, který obdrží žádost: zákazník tvrdí, že zaplatil za službu, ale přístup belum aktivován. Scénář zahrnuje standardní sadu kroků, která končí žádostí zákazníka, aby čekal. Ale agent si uvědomí, že situace je neobvyklá: zákazník již kontaktovat podporu dvakrát a v systému je několik podobných případů za posledních hodinu. Agent se obrátí na zkušenějšího kolegu, který vysvětluje, že již viděl tento případ a že problém je pravděpodobně selháním na rozhraní platební brány, banky a interního aktivačního systému – takže případ by měl být eskalován do jiného oddělení.
Pro agenta AI je tato logika neviditelná. Může mít přístup ke scénáři, historii tiketu a stavu platby, pokud jsou tyto zdroje dat připojeny, ale neví, které signály zkušený operátor považuje za rozhodující. Není to proto, že odborníci záměrně zatajují tuto znalost. Jednoduše ji nemohou formalizovat nebo rozložit na kroky: které možnosti byly vyloučeny, proč byla zvolena určitá akce a v jakém okamžiku bylo jasné, že standardní scénář se neuplatní. Kognitivní vědci označují tento jev jako tacitní znalosti – implicitní znalosti, kterých si jejich držitel možná ani není plně vědom.
To je důvod, proč se úzké místo nevyskytuje na úrovni přístupu k dokumentům, ale ve fázi převodu zkušeností odborníků do formátu vhodného pro výcvik agenta AI.
What to do about it
Aby agent AI fungoval účinně, nestačí jednoduše připojit LLM k firemní znalostní bázi, protože úspěšná rozhodnutí často závisí na tacitních znalostech. Musí být vytvořena znalostní vrstva, včetně strukturovaných kritérií pro rozhodování.
V znalostním managementu se tento proces nazývá externalizace – převod tacitních znalostí na explicitní znalosti. Jinými slovy, společnost musí pochopit nejen to, co dělá odborník, ale také to, jak myslí. To se obvykle provádí prostřednictvím série hlubokých rozhovorů s top odborníkem. Spolu s nimi by měl být někdo, kdo je zkušený v pokládání správných otázek: metodolog, znalostní inženýr nebo specialista na instruktivní design. Jejich úkolem není napsat “návody na základě toho, co říká odborník”, ale rekonstruovat kritéria pro výběr mezi možnostmi, rozložit hraniční případy a odhalit typické chyby, které odborník již automaticky řeší.
Zde může AI významně pomoci: přepisovat rozhovory, seskupovat podobné případy, převádět vysvětlení odborníků na návrh scénářů a generovat situace pro ověření. Ale konečná struktura stále potřebuje být přezkoumána a schválena odborníkem.
Výsledkem by měl být funkční znalostní korpus. Může být použit ve dvou směrech současně – pro výcvik nových zaměstnanců a pro konfiguraci agenta AI. Obě scénáře spoléhají na stejnou základnu: strukturované zkušenosti od top specialistů.
Alternativou je pokračovat v závislosti na předpokladu, že RAG nad Confluence nějakým způsobem rekonstruuje logiku, která nebyla nikdy zdokumentována. V praxi to téměř nikdy nefunguje: systém může načíst relevantní dokument, ale nenaučí se, jak dělat rozhodnutí v situacích, kde správná akce závisí na kontextu a zkušenostech.
How to check that an agent is ready to work
Transformovali jste znalosti odborníků do scénářů a nakonfigurovali agenta. Ale mezi odpověďmi agenta a skutečným provozním výkonem je mezera – a tato mezera se stává viditelnou během ověření. V této fázi je důležité určit, zda jste skutečně zachytili všechny nezbytné znalosti.
Praktický přístup je scénářové testování. Předáte agentovi reálné případy z denní práce odborníka: zákazník popírá poplatky, neobvyklý e-mail přijde, nebo žádost se objeví, která se nevejde do základního scénáře. Výsledky by neměly být hodnoceny jiným LLM, ale stejným odborníkem, který pomáhal vytvořit znalostní korpus. Pokud agent zvolí jinou cestu než zkušený specialista, nemusí to vždy znamenat, že model je slabý. Častěji to znamená, že chybí kritické pravidlo, výjimka nebo příklad. V takovém případě se proces vrací na začátek: metodolog vyjasní logiku s odborníkem, znalostní korpus se aktualizuje, instrukce se upraví a test se opakuje.
Tento cyklus není volitelným krokem, ale fází, která definuje rozdíl mezi agentem, který pouze “demonstruje potenciál” a tím, který skutečně funguje. Je to pomalý a ne příliš působivý část procesu: nevytváří působivou demonstraci a vyžaduje účast odborníků. Ale ti, kteří projdou jím systematicky, nakonec dostanou agenty, kteří skutečně snižují rutinní pracovní zatížení specialistů. Ti, kteří ho přeskočí, se často během šesti měsíců ocitnou ve statistikách Gartner, které předpovídají, že 40 % projektů bude zrušeno.
Agentic AI neselhává kvůli technologie – moderní modely jsou již schopny provádět komplexní úkoly. Selhává, protože společnosti “krmí” ho neúplnými znalostmi. V letech 2024-2025 to mohlo být ještě vysvětleno experimentální fází. V roce 2026 už tato chyba přichází za vysokou cenu.












