Leader del pensiero
I dati, non l'intelligenza artificiale, sono la chiave

L'intelligenza artificiale è diventata così profondamente radicata nelle aziende che quasi ogni operazione è stata in qualche modo influenzata da questa tecnologia. E considerando specificamente l'uso dell'intelligenza artificiale, stiamo assistendo a un'implementazione da parte delle organizzazioni di nuove forme di intelligenza artificiale per innovare e iterare sui sistemi esistenti. Infatti, un recente studio... sondaggio dei responsabili IT ha scoperto che il 98% sta già utilizzando l'intelligenza artificiale agentica per orchestrare i casi d'uso GenAI o prevede di farlo nel prossimo futuro.
Nell'esplosione di strumenti e tecnologie di intelligenza artificiale degli ultimi anni, gli agenti di intelligenza artificiale stanno rapidamente diventando tra i più popolari. Questi agenti aiutano le organizzazioni a fare qualsiasi cosa, dal migliorare l'esperienza e il supporto del cliente all'automazione dei processi interni o all'ottimizzazione dei modelli GenAI già in uso. Tuttavia, estendere i numerosi vantaggi degli agenti di intelligenza artificiale, e dell'intelligenza artificiale in generale, a un'intera azienda non è privo di difficoltà.
Il motivo per cui molte organizzazioni hanno difficoltà con l'intelligenza artificiale, e in particolare con gli agenti di intelligenza artificiale, su larga scala è dovuto alla fiducia, non alla tecnologia. Gli agenti di intelligenza artificiale, per loro natura, operano su una moltitudine di sistemi. Ovunque si trovino questi sistemi, è molto probabile che dipendano da dati altamente sensibili, che si tratti di un enorme volume di dati dei clienti, informazioni mediche o dati bancari e finanziari. È qui che risiede il problema. L'inserimento di enormi quantità di dati in qualsiasi modello di intelligenza artificiale, senza un'adeguata infrastruttura di privacy e sicurezza dei dati, espone le aziende a un rischio significativo.
Indipendentemente dal risultato di un modello di intelligenza artificiale, questo è utile solo se i dati che lo hanno addestrato sono affidabili. Ma non si tratta solo di garantire la sicurezza dei dati. Soprattutto con gli agenti di intelligenza artificiale, il funzionamento di questi modelli richiede un elevato grado di autonomia. Garantire che siano dotati di una conoscenza approfondita di chi dovrebbe accedere ai dati, quando e come, è fondamentale per creare fiducia.
Tuttavia, superare le complicazioni legate alla privacy dei dati non è impossibile. Con le giuste policy sui dati, la governance dei metadati, le API e i framework di autorizzazione di livello enterprise, i responsabili IT aziendali possono garantire che i dati che alimentano la loro intelligenza artificiale siano sicuri e affidabili.
Diamo un'occhiata più da vicino.
Esplorare la privacy dei dati e la necessità dell'intelligenza artificiale su larga scala
Uno degli obiettivi più ampi dell'integrazione di agenti di intelligenza artificiale in un'azienda è semplificare i flussi di lavoro tra operazioni e sistemi. Tuttavia, farlo senza alcuna barriera di sicurezza potrebbe esporre inavvertitamente dati sensibili lungo il percorso. In un'epoca in cui violazioni dei dati e attacchi nefasti sono in continua evoluzione, qualsiasi dato esposto o accessibile da utenti non autorizzati potrebbe rivelarsi un disastro, non solo per un'iniziativa di intelligenza artificiale, ma per l'intera azienda. Il costo medio di una violazione dei dati è di oltre $4 milioni Secondo IBM, a partire dal 2025. L'adozione dell'intelligenza artificiale sta accelerando rapidamente, spesso lasciando indietro governance e sicurezza, mentre i leader aziendali spingono per maggiore innovazione, insight più approfonditi e nuove opportunità di crescita. Tuttavia, nonostante l'aumento vertiginoso dell'adozione dell'intelligenza artificiale, le politiche e i requisiti normativi si stanno evolvendo per tenere il passo e garantire la sicurezza dei dati.
Da GDPR ai CCPA e persino politiche consolidate come l'HIIPA, le complicazioni normative rappresentano una sfida complessa per la scalabilità degli agenti di intelligenza artificiale. Gli strumenti di intelligenza artificiale che richiedono enormi quantità di dati, se non controllati, comportano un rischio maggiore. Man mano che i modelli di intelligenza artificiale si estendono a tutti questi sistemi interni, i dati sensibili vengono spesso spostati e consultati durante il processo. Quando si tratta di dati, le agenzie di regolamentazione di tutto il mondo stanno ponendo maggiore enfasi sulla garanzia della privacy, di una governance efficace e di una sicurezza solida.
Politiche più recenti come DORA—una serie di linee guida sulla gestione del rischio ICT per le società di servizi finanziari che operano nell'UE—richiedono esplicitamente la classificazione e la segnalazione degli incidenti ICT, compresi quelli che incidono sulla riservatezza, l'integrità o la disponibilità dei dati. E sebbene questa politica ponga l'accento principalmente sulla resilienza operativa, le implicazioni si estendono anche all'adozione dell'IA. Con l'aumentare delle iniziative di IA, comprese quelle con agenti di IA, che attingono ai dati su scala aziendale, aumenta il rischio di accessi non autorizzati. Se un progetto di IA dovesse comportare la perdita o l'esposizione di dati, normative come queste diventerebbero rapidamente rilevanti.
Con così tanto in gioco, è fondamentale che le aziende non perdano di vista quanto siano importanti la sicurezza, la governance e l'accesso ai dati.
Costruire le basi per alimentare gli agenti di intelligenza artificiale
Le aziende devono costruire una base fondata su una governance efficace, con rigidi limiti e regole applicabili che definiscano cosa gli agenti possono e non possono fare. Al centro di questa base c'è la governance dei dati: le policy, gli standard e le strutture di alto livello che gestiscono il modo in cui i dati vengono utilizzati in modo responsabile all'interno dell'organizzazione. Queste policy garantiscono che gli agenti non oltrepassino i propri ruoli, sia accedendo a set di dati riservati sia avviando processi senza la supervisione umana.
L'implementazione di una solida politica di governance dei dati dovrebbe partire da alcuni punti chiave, tra cui responsabilità e proprietà, qualità e coerenza dei dati, sicurezza e privacy, conformità e verificabilità, trasparenza e tracciabilità.
Con questi punti come fondamento della governance, i leader aziendali ottengono un maggiore controllo sul processo decisionale, una maggiore fiducia nei propri dati e una riduzione del rischio normativo rappresentato dai silos di dati. Questo risultato si ottiene sfruttando funzionalità come la gestione dei metadati, la classificazione dei dati e la discendenza per aumentare la trasparenza e la visibilità su chi, o a quali strumenti di intelligenza artificiale, può accedere. Ognuno di questi meccanismi consente alle aziende di tracciare l'origine dei dati, il loro flusso e la loro trasformazione.
La tecnologia è importante, ma la fiducia è fondamentale
Ogni volta che un nuovo modello o innovazione di intelligenza artificiale fa il suo ingresso sulla scena, l'adozione aumenta vertiginosamente. Ma con qualsiasi iniziativa di intelligenza artificiale emergono dei rischi, anche se non sempre dove si potrebbe pensare. Le sfide tecniche che spesso ostacolano l'adozione di nuovi strumenti non sono sempre la causa della lenta integrazione dell'intelligenza artificiale. Spesso si riduce ai dati. In particolare, alla fiducia in quei dati e alle preoccupazioni relative alla privacy. Poiché l'intelligenza artificiale si muove così rapidamente, a volte può essere difficile garantire che aspetti come i controlli degli accessi, la governance dei dati, la discendenza e la conformità tengano il passo.
La governance è un elemento importante della fiducia, ma richiede anche valutazioni efficaci. Soprattutto nell'ambito dell'intelligenza artificiale agentiva, esiste ancora una lacuna significativa nelle valutazioni standardizzate, che tuttavia sono essenziali per dimostrare che i sistemi si comportano in modo affidabile e sicuro.
Che si voglia ottimizzare le prestazioni dei sistemi interni, migliorare il rilevamento delle frodi o semplicemente rendere più fluida l'esperienza dei clienti, i migliori agenti di intelligenza artificiale e le iniziative di intelligenza artificiale in generale si basano tutti su dati affidabili, privacy e sicurezza.












