Intelligenza artificiale
Come l’AI è diventata il canale n. 1 di esfiltrazione dei dati

I leader aziendali hanno investito miliardi in strumenti di intelligenza artificiale per accelerare la produttività e l’innovazione. Ma i dati più recenti espongono un rischio serio che molte organizzazioni non avevano visto arrivare. Le stesse piattaforme di intelligenza artificiale che aiutano i dipendenti a lavorare più velocemente sono diventate il canale più grande per i dati sensibili, lasciando gli ambienti aziendali. Le scoperte recenti rivelano che il 77% dei dipendenti incolla i dati negli strumenti di intelligenza artificiale generativa e il 40% dei file caricati su queste piattaforme contiene informazioni personali identificabili o dati di pagamento. Sta succedendo proprio adesso, su larga scala, in organizzazioni che credono di avere controlli di sicurezza adeguati. Ciò che mostra è una disconnessione fondamentale tra come le aziende pensano che l’intelligenza artificiale stia essere utilizzata e ciò che accade effettivamente quando i dipendenti interagiscono con questi strumenti quotidianamente. Comprendere questo cambiamento è il primo passo verso la costruzione di strategie di sicurezza che corrispondano alla nuova realtà.
Come l’AI è diventata il nuovo vettore di perdita di dati
Due anni fa, l’intelligenza artificiale generativa a malapena esisteva nei flussi di lavoro aziendali. Oggi, il 45% di tutti i dipendenti aziendali utilizza attivamente le piattaforme di intelligenza artificiale, con l’11% di tutta l’attività aziendale che si svolge su questi strumenti. ChatGPT da solo ha raggiunto la penetrazione del 43% tra i dipendenti, un tasso che altre piattaforme di comunicazione hanno impiegato decenni per raggiungere.
La velocità di questa adozione ha creato un vuoto di sicurezza. I sistemi tradizionali di prevenzione della perdita di dati sono stati progettati per i trasferimenti di file, gli allegati di posta elettronica e il traffico di rete. Non sono stati progettati per monitorare ciò che i dipendenti digitano nelle caselle di prompt o incollano nelle interfacce di chat. Questo punto cieco è diventato la principale via di fuga per le informazioni sensibili.
L’intelligenza artificiale generativa rappresenta ora il 32% di tutti i movimenti di dati dagli account aziendali a quelli personali. Ciò la rende il canale più grande per l’esfiltrazione dei dati, superando la condivisione di file, la posta elettronica e ogni altro canale che i team di sicurezza hanno cercato di proteggere per anni. Il problema non è solo il volume, ma anche la natura della perdita. Quando qualcuno carica un documento su un server di file, c’è un registro. Quando incolla i dati dei clienti in una prompt di intelligenza artificiale, quel trasferimento spesso avviene al di fuori di qualsiasi sistema di registrazione o monitoraggio.
Il problema degli account personali
Il problema non è l’utilizzo degli strumenti di intelligenza artificiale, ma come i dipendenti accedono a questi strumenti. I modelli di sicurezza aziendale presuppongono che i dipendenti utilizzino account aziendali con autenticazione a singolo accesso, registrazione e supervisione. I dati mostrano che questa supposizione è errata e che circa il 67% dell’utilizzo di intelligenza artificiale avviene attraverso account personali non gestiti. Si tratta di indirizzi Gmail, account Microsoft personali o iscrizioni dirette che bypassano completamente i sistemi di identità aziendale. Quando qualcuno si connette a ChatGPT con la propria email personale, l’azienda non ha visibilità su quali domande vengono poste, quali dati vengono condivisi o quali informazioni sensibili potrebbero apparire nelle risposte.
Anche quando i dipendenti utilizzano account aziendali, queste credenziali spesso mancano di federazione. L’83% delle ERP di accesso e il 71% delle CRM di accesso avvengono senza accesso a singolo segno. Ciò significa che l’accesso aziendale offre quasi la stessa sicurezza o visibilità di un account personale. Il nome utente potrebbe avere il dominio aziendale, ma l’autenticazione bypass consente gli stessi flussi di dati invisibili.
Copia e incolla: la perdita di dati invisibile
Le strategie tradizionali di prevenzione della perdita di dati sono state costruite con un focus sui sistemi di file. Monitorano gli upload, gli download e gli allegati. Ma i dati mostrano che la vera fonte della perdita di dati non sono i file. È la copia e l’incolla. Il 77% dei dipendenti incolla i dati negli strumenti di intelligenza artificiale generativa. L’82% di questa attività proviene da account personali non gestiti. In media, ogni dipendente esegue 15 operazioni di incolla al giorno utilizzando i propri account personali e almeno quattro di queste contengono dati sensibili personali identificabili o informazioni di pagamento.
Ciò significa che le informazioni sensibili non si muovono più solo attraverso upload di file. Stanno anche essere iniettate direttamente in prompt, finestre di chat e campi di testo. Questi trasferimenti senza file sono quasi invisibili alle soluzioni di prevenzione della perdita di dati tradizionali. Avvengono ad alta frequenza, su più piattaforme e al di fuori della supervisione aziendale.
Il risultato è un flusso costante di dati sensibili che lasciano l’organizzazione in modi difficili da rilevare. La copia e l’incolla sono diventate il nuovo canale di esfiltrazione e gli strumenti di intelligenza artificiale sono la prima destinazione.
File sensibili in destinazioni non autorizzate
Gli upload di file rimangono una parte centrale dei flussi di lavoro aziendali. Ma le destinazioni sono cambiate. I dipendenti non confinano più gli upload nell’archiviazione o nella posta elettronica autorizzata. Stanno spostando i file negli strumenti di intelligenza artificiale generativa, nelle app dei consumatori e nelle piattaforme SaaS ombra.
I dati mostrano che il 40% dei file caricati negli strumenti di intelligenza artificiale generativa contiene dati personali o finanziari. Il 41% dei file caricati nelle piattaforme di archiviazione di file contiene gli stessi. Quasi 4 dipendenti su 10 eseguono questi upload attraverso account personali.
Ciò significa che i dati sensibili stanno fluendo in ambienti in cui le aziende non hanno visibilità e non hanno controllo. Una volta che un file viene caricato in un account Google Drive personale, in una chat di WhatsApp o in una prompt di intelligenza artificiale, è effettivamente al di fuori dei locali aziendali. Non può essere tracciato, limitato o cancellato.
Le destinazioni sono diverse. Gli strumenti aziendali come Egnyte e Zendesk appaiono accanto a piattaforme dei consumatori come Canva, LinkedIn e WhatsApp. Questo mix di ecosistemi aziendali e dei consumatori confonde i confini di dove risiedono i dati aziendali. Esso espone anche i limiti della prevenzione della perdita di dati tradizionale, che è stata progettata per canali autorizzati e controllo centralizzato.
Cosa significa per la sicurezza aziendale
Il perimetro di sicurezza tradizionale è crollato. Era possibile controllare i dati gestendo le reti, proteggendo i punti finali e monitorando le applicazioni autorizzate. Questo modello presume che il lavoro si svolga all’interno dei sistemi aziendali e solo occasionalmente utilizzi piattaforme esterne attraverso canali controllati.
La realtà è che il lavoro si svolge ora nei browser, attraverso dozzine di applicazioni, attraverso account aziendali e personali, utilizzando metodi che creano nessun registro di audit. Un dipendente che ricerca un problema del cliente potrebbe cercare nei sistemi interni, incollare i risultati in ChatGPT per riassumerli, copiare quel riassunto in Slack per condividerlo con i colleghi e inoltrarlo via posta elettronica personale per revisionarlo in seguito. Ogni passaggio coinvolge dati sensibili che si muovono attraverso canali che gli strumenti tradizionali non possono vedere.
Il browser è diventato il principale luogo di lavoro, ma i controlli di sicurezza non lo hanno seguito. I dipendenti trascorrono le loro giornate muovendosi tra le applicazioni e i dati mostrano che fanno poca distinzione tra gli strumenti aziendali e quelli personali. Utilizzano ciò che funziona, ciò che è conveniente, ciò che non richiede l’approvazione dell’IT. Ciò crea un ambiente in cui le informazioni sensibili fluiscono costantemente all’esterno attraverso canali invisibili.
Ripensare la sicurezza aziendale per l’era dell’AI
La soluzione non è bloccare gli strumenti di intelligenza artificiale o vietare gli account personali tout court. Questi approcci falliscono perché lottano contro il modo in cui i dipendenti lavorano effettivamente. Gli strumenti esistono perché rendono le persone più produttive. Gli account personali si moltiplicano perché la fornitura aziendale è lenta e restrittiva. La sicurezza che ignora queste realtà sarà semplicemente bypassata.
La protezione efficace richiede visibilità a livello di browser, dove si svolge effettivamente il lavoro. Ciò significa monitorare non solo gli upload di file, ma anche le operazioni di incolla, le invio di moduli, le interazioni con le prompt e ogni altro modo in cui i dati si muovono tra i sistemi. Significa applicare politiche che distinguono tra account aziendali e personali, indipendentemente dall’applicazione utilizzata.
Le organizzazioni devono estendere la prevenzione della perdita di dati oltre i file per includere i trasferimenti senza file. Una prompt inviata a ChatGPT dovrebbe ricevere la stessa attenzione di un allegato di posta elettronica. Un’operazione di incolla in Slack dovrebbe attivare gli stessi controlli di un upload su Google Drive. Il metodo di trasferimento non dovrebbe determinare se la sicurezza si applica.
I controlli di identità devono essere effettivamente applicati. Non basta offrire l’accesso a singolo segno se i dipendenti possono ancora accedere alle applicazioni aziendali attraverso account personali. L’autenticazione federata deve essere obbligatoria per qualsiasi applicazione che gestisce dati sensibili, non opzionale. Gli accessi aziendali non federati devono essere trattati come il rischio di sicurezza che sono.
Il punto fondamentale
L’AI è diventata la categoria in più rapida crescita nel software aziendale. È anche diventata il canale n. 1 per l’esfiltrazione dei dati. Il 77% dei dipendenti incolla i dati negli strumenti di intelligenza artificiale. Il 40% degli upload contiene informazioni sensibili. La maggior parte di questa attività avviene attraverso account non gestiti. Il vecchio perimetro di sicurezza non esiste più. La maggior parte del lavoro si svolge nel browser e anche azioni semplici come l’incolla del testo possono portare a violazioni. Le aziende che non aggiornano le proprie strategie di sicurezza per questa nuova realtà stanno già perdendo il controllo dei propri dati più preziosi.












