Leader di pensiero
3 Considerazioni per Agenti AI Sicuri e Affidabili per le Imprese
Secondo Gartner, il 30% dei progetti GenAI sarà probabilmente abbandonato dopo la prova del concetto entro la fine del 2025. L’adozione precoce di GenAI ha rivelato che la maggior parte delle infrastrutture di dati e delle pratiche di governance delle imprese non erano pronte per un efficace deploy di AI. La prima ondata di produttizzazione di GenAI ha affrontato notevoli ostacoli, con molte organizzazioni che lottano per superare le fasi di prova del concetto per raggiungere un significativo valore aziendale.
Mentre entriamo nella seconda ondata di produttizzazione di generative AI, le aziende stanno realizzando che implementare con successo queste tecnologie richiede più che semplicemente collegare un LLM ai loro dati. La chiave per sbloccare il potenziale dell’AI risiede in tre pilastri fondamentali: mettere in ordine i dati e assicurarsi che siano pronti per l’integrazione con l’AI; rinnovare le pratiche di governance dei dati per affrontare le sfide uniche introdotte da GenAI; e distribuire gli agenti AI in modi che rendano l’uso sicuro e affidabile naturale e intuitivo, in modo che gli utenti non debbano imparare abilità specializzate o modelli di utilizzo precisi. Insieme, questi pilastri creano una solida base per agenti AI sicuri ed efficaci in ambienti aziendali.
Preparare Correttamente i Dati per l’AI
Mentre i dati strutturati potrebbero apparire organizzati all’occhio nudo, essendo disposti in tabelle e colonne, gli LLM spesso lottano per comprendere e lavorare con questi dati strutturati in modo efficace. Ciò accade perché, nella maggior parte delle imprese, i dati non sono etichettati in modo semanticamente significativo. I dati spesso hanno etichette criptiche, ad esempio “ID” senza alcuna indicazione chiara se si tratta di un identificatore per un cliente, un prodotto o una transazione. Con i dati strutturati, è anche difficile catturare il contesto appropriato e le relazioni tra diversi punti di dati interconnessi, come le relazioni tra i passaggi in un percorso del cliente. Proprio come abbiamo dovuto etichettare ogni immagine nelle applicazioni di visione computerizzata per consentire un’interazione significativa, le organizzazioni devono ora intraprendere il compito complesso di etichettare semanticamente i loro dati e documentare le relazioni in tutti i sistemi per consentire interazioni AI significative.
Inoltre, i dati sono sparsi in molti luoghi diversi – dai server tradizionali a vari servizi cloud e diverse applicazioni software. Questo mosaico di sistemi conduce a critiche questioni di interoperabilità e integrazione che diventano ancora più problematiche quando si implementano soluzioni AI.
Un’altra sfida fondamentale risiede nell’incoerenza delle definizioni aziendali attraverso diversi sistemi e dipartimenti. Ad esempio, i team di customer success potrebbero definire “upsell” in un modo, mentre il team di vendita lo definisce in un altro. Quando si collega un agente AI o un chatbot a questi sistemi e si iniziano a porre domande, si ottengono risposte diverse perché le definizioni dei dati non sono allineate. Questa mancanza di allineamento non è un’inconvenienza minore – è una barriera critica per l’implementazione di soluzioni AI affidabili.
La scarsa qualità dei dati crea un classico scenario “spazzatura dentro, spazzatura fuori” che diventa esponenzialmente più grave quando gli strumenti AI vengono distribuiti in tutta l’azienda. I dati errati o disordinati influenzano molto più di un’analisi – diffondono informazioni errate a tutti gli utenti del sistema attraverso le loro domande e interazioni. Per costruire fiducia nei sistemi AI per decisioni aziendali reali, le imprese devono assicurarsi che le loro applicazioni AI abbiano dati puliti, precisi e compresi nel contesto aziendale appropriato. Ciò rappresenta un fondamentale cambiamento nel modo in cui le organizzazioni devono pensare ai loro asset di dati nell’era dell’AI – dove la qualità, la coerenza e la chiarezza semantica diventano altrettanto cruciali quanto i dati stessi.
Rafforzare l’Approccio alla Governance
La governance dei dati è stata un focus importante per le organizzazioni negli ultimi anni, principalmente centrata sulla gestione e protezione dei dati utilizzati nell’analisi. Le aziende hanno fatto sforzi per mappare le informazioni sensibili, aderire agli standard di accesso, conformarsi a leggi come il GDPR e il CCPA e rilevare i dati personali. Queste iniziative sono vitali per creare dati pronti per l’AI. Tuttavia, mentre le organizzazioni introducono agenti di intelligenza artificiale generativa nei loro flussi di lavoro, la sfida di governance si estende oltre i dati stessi per abbracciare l’intera esperienza di interazione utente con l’AI.
Ci troviamo ora di fronte all’imperativo di governare non solo i dati sottostanti, ma anche il processo con cui gli utenti interagiscono con quei dati attraverso gli agenti AI. La legislazione esistente, come l’Atto sull’intelligenza artificiale dell’Unione Europea, e ulteriori regolamenti all’orizzonte sottolineano la necessità di governare il processo di risposta alle domande stesso. Ciò significa assicurarsi che gli agenti AI forniscono risposte trasparenti, spiegabili e tracciabili. Quando gli utenti ricevono risposte “scatola nera” – come chiedere “Quanti pazienti con influenza sono stati ammessi ieri?” e ricevere solo “50” senza contesto – è difficile fidarsi di quelle informazioni per decisioni critiche. Senza sapere da dove provengono i dati, come sono stati calcolati o le definizioni di termini come “ammesso” e “ieri”, l’output dell’AI perde affidabilità.
A differenza delle interazioni con i documenti, dove gli utenti possono rintracciare le risposte a specifici PDF o politiche per verificare l’accuratezza, le interazioni con dati strutturati attraverso agenti AI spesso mancano di questo livello di tracciabilità e spiegabilità. Per affrontare questi problemi, le organizzazioni devono implementare misure di governance che non solo proteggano i dati sensibili, ma anche rendano l’esperienza di interazione con l’AI governata e affidabile. Ciò include l’istituzione di controlli di accesso robusti per assicurarsi che solo il personale autorizzato possa accedere a informazioni specifiche, la definizione di chiare responsabilità di proprietà e gestione dei dati e l’assicurazione che gli agenti AI forniscono spiegazioni e riferimenti per i loro output. Rinnovando le pratiche di governance dei dati per includere queste considerazioni, le imprese possono sfruttare in modo sicuro il potere degli agenti AI mentre si conformano a regolamenti in evoluzione e mantengono la fiducia degli utenti.
Pensare Oltre l’Ingegneria delle Prompt
Mentre le organizzazioni introducono agenti di intelligenza artificiale generativa nel tentativo di migliorare l’accessibilità dei dati, l’ingegneria delle prompt è emersa come una nuova barriera tecnica per gli utenti aziendali. Sebbene sia considerata una promettente carriera, l’ingegneria delle prompt è essenzialmente la ricreazione delle stesse barriere con cui abbiamo lottato nell’analisi dei dati. Creare prompt perfetti non è diverso dallo scrivere query SQL specializzate o costruire filtri del cruscotto – è il trasferimento dell’esperienza tecnica da un formato all’altro, ancora richiedendo abilità specializzate che la maggior parte degli utenti aziendali non ha e non dovrebbe avere.
Le imprese hanno a lungo cercato di risolvere l’accessibilità dei dati formando gli utenti a comprendere meglio i sistemi di dati, creando documentazione e sviluppando ruoli specializzati. Ma questo approccio è contrario – chiediamo agli utenti di adattarsi ai dati invece di far adattare i dati agli utenti. L’ingegneria delle prompt minaccia di continuare questo modello creando un altro livello di intermediari tecnici.
La vera democratizzazione dei dati richiede sistemi che comprendono il linguaggio aziendale, non utenti che comprendono il linguaggio dei dati. Quando i dirigenti chiedono informazioni sulla fidelizzazione dei clienti, non dovrebbero avere bisogno di terminologia o prompt perfetti. I sistemi dovrebbero comprendere l’intento, riconoscere dati rilevanti attraverso diverse etichette (sia che si tratti di “abbandono”, “fidelizzazione” o “ciclo di vita del cliente”) e fornire risposte contestualizzate. Ciò consente agli utenti aziendali di concentrarsi sulle decisioni piuttosto che imparare a porre domande tecnicamente perfette.
Conclusione
Gli agenti AI porteranno importanti cambiamenti nel modo in cui le imprese operano e prendono decisioni, ma vengono con un insieme unico di sfide che devono essere affrontate prima del loro deploy. Con l’AI, ogni errore è amplificato quando gli utenti non tecnici hanno accesso self-service, rendendo cruciale ottenere le fondamenta giuste.
Le organizzazioni che affrontano con successo le sfide fondamentali della qualità dei dati, dell’allineamento semantico e della governance mentre superano i limiti dell’ingegneria delle prompt saranno posizionate per democratizzare in modo sicuro l’accesso ai dati e alle decisioni. Il miglior approccio consiste nel creare un ambiente collaborativo che faciliti il lavoro di squadra e allinei le interazioni uomo-macchina e macchina-macchina. Ciò garantisce che le informazioni guidate dall’AI siano accurate, sicure e affidabili, incoraggiando una cultura aziendale che gestisce, protegge e massimizza i dati al loro pieno potenziale.












