Connect with us

De ce agenții AI din întreprinderi se confruntă cu o problemă de cunoaștere, nu una tehnologică

Lideri de opinie

De ce agenții AI din întreprinderi se confruntă cu o problemă de cunoaștere, nu una tehnologică

mm
A row of antique leather-bound books stands next to a glowing metal bookend featuring a purple light-up geometric structure on a wooden desk in a modern high-rise office at night.

Anul trecut, S&P Global a raportat că procentul companiilor care abandonează majoritatea inițiativelor lor de inteligență artificială a crescut mai mult decât dublu, de la 17% la 42%. Înainte de aceasta, Gartner a publicat o previziune privind proiectele de inteligență artificială agențială: 40% dintre acestea vor fi oprite până la sfârșitul anului 2027.

Conform McKinsey & Company, aproape jumătate dintre toate companiile experimentează cu agenți de inteligență artificială. Dar câte dintre acestea au depășit stadiul de pilot și sunt cu adevărat operaționale? Aproximativ una din zece.

Industria are o mulțime de explicații: halucinații ale modelului, lipsa de guvernanță, costuri ridicate ale GPU-urilor și lipsa de specialiști. Toate acestea sunt provocări reale. Dar după trei ani de lucru cu sisteme de gestionare a cunoașterii și agenți de inteligență artificială, văd din ce în ce mai mult un alt model: companiile transmit agenților lor date incomplete.

Ca doctor în științe pedagogice, consider aceasta o problemă de transfer de cunoaștere. Dacă o persoană nu poate explica cum ia decizii, logica sa nu poate fi transferată unui nou angajat — și cu atât mai puțin unui agent de inteligență artificială. Să explorăm de ce se întâmplă acest lucru și ce se poate face în acest sens.

Unde se află cunoașterea despre modul în care o companie funcționează în realitate

Întrebați o companie mare unde se stochează cunoașterea angajaților, și veți auzi o listă lungă: Confluence, SharePoint, platforme de gestionare a învățământului, boturi de întrebări frecvente, arhive de discuții. S-ar putea să pară că acesta este exact stiva pe care un sistem RAG o poate utiliza pentru a obține tot ce are nevoie. Dar un element crucial lipsește — cunoașterea care trăiește în mintea oamenilor. Cunoașterea pe care nimeni nu a scris-o vreodată.

De ce este aceasta o problemă?

Pentru că un agent de inteligență artificială trebuie să preia o parte a fluxului de lucru — să înțeleagă contextul, să aleagă o acțiune și să ducă o sarcină la bun sfârșit — are nevoie nu numai de acces la o bază de cunoaștere, ci și de logica de luare a deciziilor utilizată de un specialist experimentat.

Imaginați-vă un nou agent de suport care primește o solicitare: un client afirmă că a plătit pentru un serviciu, dar accesul nu a fost activat. Scenariul include un set standard de pași care se termină cu solicitarea clientului de a aștepta. Cu toate acestea, agentul observă că situația este neobișnuită: clientul a contactat deja suportul de două ori, și există mai multe cazuri similare în sistem în ultima oră. El se adresează unui coleg mai experimentat, care explică că a văzut acest lucru înainte și că problema este, probabil, o defecțiune la intersecția porții de plată, a băncii și a sistemului de activare intern — astfel încât cazul trebuie escaladat către un alt departament.

Pentru un agent de inteligență artificială, această logică este invizibilă. El poate avea acces la scenariu, la istoricul biletului și la starea plății, dacă aceste surse de date sunt conectate, dar nu știe care semnale un operator experimentat consideră decisive. Nu este vorba despre faptul că experții intenționează să ascundă această cunoaștere. Ei pur și simplu nu o pot formaliza sau descompune în pași: care opțiuni au fost eliminate, de ce a fost aleasă o anumită acțiune și la ce punct a devenit clar că scenariul standard nu se aplică. Oamenii de știință cognitivi se referă la acest fenomen ca la cunoaștere tacită — cunoaștere implicită pe care chiar și deținătorul său poate să nu o conștientizeze pe deplin.

Acesta este motivul pentru care blocajul nu apare la nivelul accesului la documente, ci la etapa de conversie a experienței expertului într-un format adecvat pentru antrenarea unui agent de inteligență artificială.

Ce se poate face în acest sens

Pentru a face un agent de inteligență artificială să funcționeze eficient, nu este suficient să conectați pur și simplu un model de limbaj la o bază de cunoaștere corporativă, deoarece deciziile de succes se bazează adesea pe cunoașterea tacită. Trebuie creată o strat de cunoaștere, inclusiv criterii structurate de luare a deciziilor.

În gestionarea cunoașterii, acest proces se numește externalizare — conversia cunoașterii tacite în cunoaștere explicită. Cu alte cuvinte, o companie trebuie să înțeleagă nu numai ce face un expert, ci și cum gândește. Acest lucru se realizează, de obicei, prin intermediul unei serii de interviuri aprofundate cu un expert de top. Alături de el ar trebui să fie cineva priceput în a pune întrebările potrivite: un metodolog, inginer de cunoaștere sau specialist în proiectare instructivă. Sarcina lor nu este de a scrie o “instrucțiune bazată pe ceea ce spune expertul”, ci de a reconstrui criteriile pentru alegerea între opțiuni, de a descompune cazurile limită și de a aduce la suprafață greșelile tipice pe care expertul le gestionează deja în mod automat.

Aici, inteligența artificială poate ajuta semnificativ: transcriind interviurile, grupând cazurile similare, transformând explicațiile expertului în scenarii provizorii și generând situații pentru validare. Cu toate acestea, structura finală trebuie să fie revizuită și aprobată de expert.

Rezultatul ar trebui să fie un corpus de cunoaștere funcțional. El poate fi utilizat în două direcții, în același timp — pentru a antrena noi angajați și pentru a configura un agent de inteligență artificială. Ambele scenarii se bazează pe aceeași bază: experiența structurată a specialiștilor de top.

Alternativa este de a continua să ne bazăm pe presupunerea că RAG peste Confluence va reuși, în mod miraculos, să reconstituie logica care nu a fost documentată niciodată. În practică, acest lucru funcționează rareori: sistemul poate recupera un document relevant, dar nu va învăța să ia decizii în situații în care acțiunea corectă depinde de context și de experiență.

Cum să verificați dacă un agent este gata de lucru

Ați transformat cunoașterea expertului în scenarii și ați configurat agentul. Dar există o lacună între răspunsurile plauzibile ale agentului și performanța sa operațională reală — și această lacună devine vizibilă doar în timpul validării. La acest stadiu, este important să determinați dacă ați capturat, într-adevăr, toate cunoașterile necesare.

O abordare practică este testarea bazată pe scenarii. Îi oferiți agentului cazuri reale din munca zilnică a unui expert: un client contestă o taxă, un e-mail neobișnuit sosește sau apare o solicitare care nu se potrivește scenariului de bază. Rezultatele nu ar trebui să fie evaluate de alt model de limbaj, ci de același expert care a ajutat la crearea corpusului de cunoaștere. Dacă agentul alege o cale diferită de cea a specialistului experimentat, nu înseamnă întotdeauna că modelul este slab. Mai des, indică faptul că o regulă critică, o excepție sau un exemplu este lipsă. În acest caz, procesul revine la început: metodologul clarifică logica cu expertul, corpusul de cunoaștere este actualizat, instrucțiunile sunt rafinate, și testul este repetat.

Acest ciclu nu este un pas opțional, ci o etapă care definește diferența între un agent care doar “demonstrează potențial” și unul care efectiv realizează munca. Este o parte lentă și nu prea impresionantă a procesului: nu produce o demonstrație spectaculoasă și necesită implicarea experților. Dar cei care o parcurg sistematic se vor termina cu agenți care reduc, într-adevăr, munca de rutină pentru specialiști. Cei care o sar peste, înșase luni, se vor găsi adesea în statistica Gartner, care prezice că 40% din proiecte vor fi anulate.

Inteligența artificială agențială nu eşuează din cauza tehnologiei — modelele moderne sunt deja capabile să execute sarcini complexe. Ea eşuează pentru că companiile “hrănesc”-o cu cunoașterea incompletă. În 2024–2025, acest lucru putea fi încă explicat prin stadiul experimental. În 2026, această greșeală vine deja cu un cost ridicat.

Dmytro Korchevskyi este fondatorul Sintegrum, o platformă HR alimentată de IA care ajută companiile să automatizeze procesele de angajare, integrare, instruire a angajaților și gestionare a cunoștințelor.
El a fondat, de asemenea, STEP IT Academy, o rețea educațională globală care operează în 26 de țări, și deține un doctorat în pedagogie, axat pe modul în care IA poate sprijini învățarea scalabilă și dezvoltarea forței de muncă.