Connect with us

Dlaczego agenci AI w przedsiębiorstwach napotykają na problem wiedzy, a nie technologiczny

Liderzy opinii

Dlaczego agenci AI w przedsiębiorstwach napotykają na problem wiedzy, a nie technologiczny

mm
A row of antique leather-bound books stands next to a glowing metal bookend featuring a purple light-up geometric structure on a wooden desk in a modern high-rise office at night.

W zeszłym roku S&P Global zgłosiło, że udział firm porzucających większość swoich inicjatyw AI ponad dwukrotnie wzrósł, z 17% do 42%. Wcześniej Gartner opublikował prognozę dotyczącą projektów agentic AI: 40% z nich zostanie zakończonych do końca 2027 roku.

Według McKinsey & Company, prawie połowa wszystkich firm eksperymentuje z agentami AI. Ale ile z nich przeszło poza etap pilotażowy i jest naprawdę operacyjna? Około jeden na dziesięć.

Branża nie ma braku wyjaśnień: halucynacje modelu, brak zarządzania, wysokie koszty GPU i brak specjalistów. Wszystkie te wyzwania są rzeczywiste. Ale po trzech latach pracy z systemami zarządzania wiedzą i agentami AI, coraz częściej widzę inny wzorzec: firmy przekazują niekompletne dane swoim agentom.

Jako Doktor Nauk Pedagogicznych, widzę to jako problem transferu wiedzy. Jeśli osoba nie może wyjaśnić, jak podejmuje decyzje, jej logika nie może być przeniesiona na nowego pracownika – a tym bardziej na agenta AI. Zbadajmy, dlaczego się to dzieje i co można z tym zrobić.

Gdzie znajduje się wiedza o tym, jak firma naprawdę działa

Zapytaj dużą firmę, gdzie przechowuje się wiedzę pracowników, a usłyszysz długą listę: Confluence, SharePoint, platformy LMS, boty FAQ, archiwa Slack. Może się wydawać, że to jest właśnie taki stos, który system RAG może wykorzystać do pobrania wszystkiego, co potrzebne. Ale brakuje jednego kluczowego elementu – wiedzy, która żyje w głowach ludzi. Wiedzy, którą nikt nigdy nie zapisał.

Dlaczego jest to problem?

Ponieważ aby agent AI mógł przejąć część przepływu pracy – zrozumieć kontekst, wybrać działanie i przeprowadzić zadanie do końca – potrzebuje nie tylko dostępu do bazy wiedzy, ale także logiki podejmowania decyzji stosowanej przez doświadczonego specjalistę.

Wyobraź sobie nowego agenta wsparcia, który otrzymuje wniosek: klient twierdzi, że zapłacił za usługę, ale dostęp nie został aktywowany. Scenariusz obejmuje standardowy zestaw kroków, który kończy się prośbą do klienta, aby poczekał. Jednak agent zauważa, że sytuacja jest niezwykła: klient już dwukrotnie skontaktował się z wsparciem, a w systemie jest kilka podobnych przypadków w ciągu ostatniej godziny. Zwraca się do bardziej doświadczonego kolegi, który wyjaśnia, że widział to już wcześniej i że problem najprawdopodobniej jest awarią na skrzyżowaniu bramki płatności, banku i wewnętrznego systemu aktywacji – więc przypadek powinien być eskalowany do innego departamentu.

Dla agenta AI ta logika jest niewidoczna. Może mieć dostęp do scenariusza, historii biletu i statusu płatności, jeśli te źródła danych są połączone, ale nie wie, które sygnały doświadczony operator uważa za decydujące. Nie chodzi o to, że eksperci celowo ukrywają tę wiedzę. Po prostu nie mogą ją sformalizować ani rozbić na kroki: które opcje zostały odrzucone, dlaczego wybrano określone działanie i w którym momencie stało się jasne, że standardowy scenariusz nie ma zastosowania. Naukowcy kognitywni nazywają to zjawisko wiedzą ukrytą – niejawna wiedza, której nawet jej posiadacz może nie być w pełni świadomy.

To dlatego wąskie gardło nie pojawia się na poziomie dostępu do dokumentów, ale na etapie konwersji doświadczenia eksperta na format odpowiedni do szkolenia agenta AI.

Co z tym zrobić

Aby agent AI działał skutecznie, nie wystarczy po prostu podłączyć LLM do bazy wiedzy korporacyjnej, ponieważ udane decyzje często opierają się na wiedzy ukrytej. Najpierw musi zostać utworzona warstwa wiedzy, w tym sformalizowane kryteria podejmowania decyzji.

W zarządzaniu wiedzą ten proces nazywa się eksternalizacją – konwersją wiedzy ukrytej na wiedzę jawna. Innymi słowy, firma musi zrozumieć nie tylko to, co robi ekspert, ale także to, jak myśli. Zazwyczaj robi się to za pomocą serii pogłębionych wywiadów z najlepszym ekspertem. Wraz z nim powinien być ktoś, kto potrafi zadawać odpowiednie pytania: metodyk, inżynier wiedzy lub specjalista ds. projektowania instruktażu. Ich zadaniem nie jest pisanie “instrukcji na podstawie tego, co mówi ekspert”, ale odtworzenie kryteriów wyboru pomiędzy opcjami, rozbicie przypadków granicznych i ujawnienie typowych błędów, które ekspert już obsługuje automatycznie.

Tutaj AI może pomóc znacznie: transkrypcja wywiadów, grupowanie podobnych przypadków, przekształcanie wyjaśnień eksperta w projekty scenariuszy i generowanie sytuacji do walidacji. Jednak ostateczna struktura nadal musi zostać przeglądana i zatwierdzona przez eksperta.

Wynikiem powinien być funkcjonalny korpus wiedzy. Może być on wykorzystywany w dwóch kierunkach jednocześnie – do szkolenia nowych pracowników i do konfigurowania agenta AI. Obie scenariusze opierają się na tym samym fundamencie: sformalizowanym doświadczeniu najlepszych specjalistów.

Alternatywą jest dalsze poleganie na założeniu, że RAG nad Confluence jakoś odtworzy logikę, która nigdy nie została udokumentowana. W praktyce to prawie nigdy nie działa: system może pobrać odpowiedni dokument, ale nie nauczy się, jak podejmować decyzje w sytuacjach, w których prawidłowe działanie zależy od kontekstu i doświadczenia.

Jak sprawdzić, czy agent jest gotowy do pracy

Przekształciłeś wiedzę eksperta w scenariusze i skonfigurowałeś agenta. Ale jest przepaść pomiędzy odpowiedziami agenta a rzeczywistą wydajnością operacyjną – i ta przepaść staje się widoczna dopiero podczas walidacji. Na tym etapie ważne jest ustalenie, czy naprawdę udało się uchwycić wszystkie niezbędne informacje.

Prawidłowe podejście to testowanie oparte na scenariuszach. Dajesz agentowi rzeczywiste przypadki z codziennej pracy eksperta: klient kwestionuje opłatę, przychodzi niezwykły e-mail lub pojawia się wniosek, który nie pasuje do podstawowego scenariusza. Wyniki nie powinny być oceniane przez inny LLM, ale przez tego samego eksperta, który pomógł zbudować korpus wiedzy. Jeśli agent podejmuje inne działanie niż doświadczony specjalista, nie zawsze oznacza to, że model jest słaby. Częściej wskazuje to, że brakuje krytycznej reguły, wyjątku lub przykładu. W takim przypadku proces wraca do początku: metodyk wyjaśnia logikę z ekspertem, korpus wiedzy jest aktualizowany, instrukcje są doskonalone, a test jest powtarzany.

Ten cykl nie jest opcjonalnym krokiem, ale etapem, który definiuje różnicę pomiędzy agentem, który tylko “demonstruje potencjał” a tym, który naprawdę wykonuje pracę. Jest to powolny i niezbyt imponujący fragment procesu: nie produkuje efektownej demonstracji i wymaga zaangażowania ekspertów. Ale ci, którzy przechodzą przez to systematycznie, kończą z agentami, które naprawdę redukują rutynową pracę specjalistów. Ci, którzy to pomijają, w ciągu sześciu miesięcy często znajdują się w statystykach Gartnera, które przewidują, że 40% projektów zostanie anulowanych.

Agenci AI nie zawodzą z powodu technologii – nowoczesne modele są już w stanie wykonywać złożone zadania. Zawodzą, ponieważ firmy “karmią” je niekompletną wiedzą. W latach 2024-2025 można to jeszcze tłumaczyć etapem eksperymentalnym. W 2026 roku ten błąd już wiąże się z wysokimi kosztami.

Dmytro Korchevskyi jest założycielem Sintegrum, platformy HR wspieranej przez sztuczną inteligencję, która pomaga firmom zautomatyzować procesy rekrutacji, onboardingu, szkolenia pracowników oraz zarządzania wiedzą. Jest również założycielem STEP IT Academy, globalnej sieci edukacyjnej działającej w 26 krajach, oraz posiada stopień doktora pedagogiki, koncentrując się na tym, jak sztuczna inteligencja może wspierać skalowalne uczenie się i rozwój zasobów ludzkich.