Leader di pensiero
Perché gli agenti AI nelle aziende si scontrano con un problema di conoscenza, non di tecnologia

Lo scorso anno, S&P Global ha riferito che la quota di aziende che abbandonano la maggior parte delle loro iniziative di intelligenza artificiale è più che raddoppiata, passando dal 17% al 42%. Prima di ciò, Gartner ha pubblicato una previsione sui progetti di intelligenza artificiale agente: il 40% di essi sarà chiuso entro la fine del 2027.
Secondo McKinsey & Company, quasi la metà di tutte le aziende sta sperimentando con gli agenti di intelligenza artificiale. Ma quante di loro sono andate oltre la fase di prova e sono effettivamente operative? Circa una su dieci.
L’industria non ha carenza di spiegazioni: allucinazioni del modello, mancanza di governance, alti costi di GPU e carenza di specialisti. Tutti questi sono sfide reali. Ma dopo tre anni di lavoro con sistemi di gestione della conoscenza e agenti di intelligenza artificiale, sto vedendo sempre più un diverso pattern: le aziende passano dati incompleti ai loro agenti.
Come dottore in scienze pedagogiche, considero questo un problema di trasferimento della conoscenza. Se una persona non può spiegare come prende le decisioni, la sua logica non può essere trasferita a un nuovo dipendente, figuriamoci a un agente di intelligenza artificiale. Esploriamo il perché questo accade e cosa si può fare al riguardo.
Dove risiede la conoscenza su come un’azienda opera effettivamente
Chiedi a un’azienda grande dove vengono archiviati i dati dei dipendenti e ti sentirai rispondere con una lunga lista: Confluence, SharePoint, piattaforme di apprendimento, bot di FAQ, archivi di Slack. Potrebbe sembrare che questo sia esattamente lo stack che un sistema di gestione della conoscenza possa utilizzare per recuperare tutto ciò che gli serve. Ma un elemento cruciale manca: la conoscenza che vive nella testa delle persone. Conoscenza che nessuno ha mai scritto.
Perché è un problema?
Perché per un agente di intelligenza artificiale prendere il controllo di una parte del flusso di lavoro — capire il contesto, scegliere un’azione e portare a termine un compito — è necessario non solo accedere a una base di conoscenza, ma anche alla logica decisionale utilizzata da uno specialista esperto.
Immagina un nuovo agente di supporto che riceve una richiesta: un cliente afferma di aver pagato per un servizio, ma l’accesso non è stato attivato. La sceneggiatura include un set standard di passaggi che si conclude con la richiesta al cliente di attendere. Tuttavia, l’agente nota che la situazione è insolita: il cliente ha già contattato il supporto due volte e ci sono diversi casi simili nel sistema nell’ultima ora. Si rivolge a un collega più esperto, che spiega di aver già visto questo prima e che il problema è probabilmente un guasto all’intersezione del gateway di pagamento, della banca e del sistema di attivazione interno — quindi il caso dovrebbe essere escalato a un altro dipartimento.
Per un agente di intelligenza artificiale, questa logica è invisibile. Potrebbe avere accesso alla sceneggiatura, alla storia dei biglietti e allo stato del pagamento se queste fonti di dati sono collegate, ma non sa quali segnali un operatore esperto considera decisivi. Non è che gli esperti stiano intenzionalmente nascondendo questa conoscenza. Semplicemente non possono formalizzarla o dividerla in passaggi: quali opzioni sono state escluse, perché un’azione particolare è stata scelta e in che punto è diventato chiaro che la sceneggiatura standard non si applicava. Gli scienziati cognitivi si riferiscono a questo fenomeno come conoscenza tacita — conoscenza implicita che anche il suo possessore potrebbe non essere pienamente consapevole.
Questo è il motivo per cui il collo di bottiglia non si verifica a livello di accesso ai documenti, ma alla fase di conversione dell’esperienza dell’esperto in un formato adatto per l’addestramento di un agente di intelligenza artificiale.
Cosa fare al riguardo
Per far funzionare efficacemente un agente di intelligenza artificiale, non è sufficiente semplicemente collegare un modello di linguaggio a una base di conoscenza aziendale, perché le decisioni di successo spesso si basano sulla conoscenza tacita. Un livello di conoscenza deve essere creato, che includa criteri decisionali strutturati.
Nella gestione della conoscenza, questo processo è chiamato esternalizzazione — convertire la conoscenza tacita in conoscenza esplicita. In altre parole, un’azienda deve capire non solo cosa fa un esperto, ma anche come pensa. Ciò viene solitamente fatto attraverso una serie di interviste approfondite con un esperto di alto livello. Accanto a loro dovrebbe esserci qualcuno abile nel fare le domande giuste: un metodologo, un ingegnere della conoscenza o uno specialista di progettazione didattica. Il loro compito non è quello di scrivere un “istruzione basata su ciò che dice l’esperto”, ma di ricostruire i criteri per la scelta tra opzioni, dividere i casi limite e portare alla superficie gli errori tipici che l’esperto già gestisce automaticamente.
Qui, l’intelligenza artificiale può aiutare notevolmente: trascrivendo le interviste, raggruppando casi simili, trasformando le spiegazioni degli esperti in sceneggiature di bozza e generando situazioni per la convalida. Tuttavia, la struttura finale deve ancora essere esaminata e approvata dall’esperto.
Il risultato dovrebbe essere un corpus di conoscenza funzionante. Può essere utilizzato in due direzioni contemporaneamente — per formare nuovi dipendenti e per configurare un agente di intelligenza artificiale. Entrambe le scenari si basano sulla stessa base: esperienza strutturata da specialisti di alto livello.
L’alternativa è continuare a fare affidamento sull’ipotesi che il sistema di gestione della conoscenza su Confluence possa in qualche modo ricostruire la logica che non è mai stata documentata. Nella pratica, ciò quasi mai funziona: il sistema potrebbe recuperare un documento rilevante, ma non imparerà a prendere decisioni in situazioni in cui l’azione corretta dipende dal contesto e dall’esperienza.
Come verificare che un agente sia pronto a lavorare
Hai trasformato la conoscenza dell’esperto in sceneggiature e configurato l’agente. Ma c’è un divario tra le risposte plausibili dell’agente e le prestazioni operative reali — e questo divario diventa visibile solo durante la convalida. A questo stadio, è importante determinare se si è effettivamente catturata tutta la conoscenza necessaria.
Un approccio pratico è il test basato su scenari. Dai all’agente casi reali dal lavoro quotidiano di un esperto: un cliente contesta una fattura, arriva un’e-mail insolita o appare una richiesta che non si adatta alla sceneggiatura di base. I risultati non dovrebbero essere valutati da un altro modello di linguaggio, ma dallo stesso esperto che ha aiutato a costruire il corpus di conoscenza. Se l’agente prende una strada diversa da quella dello specialista esperto, non significa sempre che il modello è debole. Più spesso, indica che una regola critica, un’eccezione o un esempio è mancante. In quel caso, il processo torna all’inizio: il metodologo chiarisce la logica con l’esperto, il corpus di conoscenza viene aggiornato, le istruzioni vengono raffinate e il test viene ripetuto.
Questo ciclo non è un passaggio facoltativo, ma uno stadio che definisce la differenza tra un agente che semplicemente “dimostra il potenziale” e uno che effettivamente svolge il lavoro. È una parte lenta e non molto impressionante del processo: non produce una demo appariscente e richiede il coinvolgimento degli esperti. Ma coloro che lo seguono sistematicamente finiscono con agenti che riducono effettivamente il carico di lavoro routinario per gli specialisti. Coloro che lo saltano, entro sei mesi spesso si ritrovano nelle statistiche di Gartner, che prevede che il 40% dei progetti sarà cancellato.
L’intelligenza artificiale agente non fallisce a causa della tecnologia — i modelli moderni sono già in grado di eseguire compiti complessi. Fallisce perché le aziende “alimentano” l’intelligenza artificiale con conoscenza incompleta. Nel 2024-2025, ciò poteva ancora essere spiegato dalla fase sperimentale. Nel 2026, questo errore ha già un costo elevato.












