Intelligenza Artificiale
Come l'intelligenza artificiale è diventata il canale di esfiltrazione dei dati numero 1

I leader aziendali hanno investito miliardi in strumenti di intelligenza artificiale per accelerare la produttività e l'innovazione. Ma il ultimi dati espone a un rischio serio che molte organizzazioni non avevano previsto. Le stesse piattaforme di intelligenza artificiale che aiutano i dipendenti a lavorare più velocemente sono diventate il principale canale di dati sensibili, uscendo dagli ambienti aziendali. Recenti scoperte rivelano che il 77% dei dipendenti incolla dati in strumenti di intelligenza artificiale generativa e il 40% dei file caricati su queste piattaforme contiene informazioni personali identificabili o dati di carte di pagamento. Questo sta accadendo proprio ora, su larga scala, in organizzazioni che ritengono di disporre di adeguati controlli di sicurezza. Ciò che dimostra è una discrepanza fondamentale tra il modo in cui le aziende pensano che l'intelligenza artificiale venga utilizzata e ciò che accade realmente quando i dipendenti interagiscono quotidianamente con questi strumenti. Comprendere questo cambiamento è il primo passo verso la creazione di strategie di sicurezza adeguate alla nuova realtà.
Come l'intelligenza artificiale è diventata il nuovo vettore di fuga di dati
Due anni fa, l'intelligenza artificiale generativa era praticamente assente nei flussi di lavoro aziendali. Oggi, il 45% dei dipendenti aziendali utilizza attivamente piattaforme di intelligenza artificiale, con l'11% di tutte le attività aziendali che si svolgono su questi strumenti. ChatGPT da solo ha raggiunto il 43% di penetrazione dei dipendenti, un tasso che altre piattaforme di comunicazione hanno impiegato decenni per raggiungere.
La velocità di questa adozione ha creato un vuoto di sicurezza. Tradizionale sistemi di prevenzione della perdita di dati Sono stati progettati per il trasferimento di file, gli allegati e-mail e il traffico di rete. Non sono mai stati progettati per monitorare ciò che i dipendenti digitano nelle finestre di richiesta o incollano nelle interfacce di chat. Questo punto cieco è diventato la principale via di fuga per le informazioni sensibili.
L'intelligenza artificiale generativa rappresenta ora il 32% di tutti i trasferimenti di dati dagli account aziendali a quelli personali. Questo la rende il canale più grande per esfiltrazione dei dati, superando la condivisione di file, la posta elettronica e ogni altro canale che i team di sicurezza hanno impiegato anni a proteggere. Il problema non è solo il volume, ma anche la natura della fuga di dati. Quando qualcuno carica un documento su un file server, viene creato un record. Quando si incollano i dati dei clienti in un prompt di intelligenza artificiale, tale trasferimento avviene spesso al di fuori di qualsiasi sistema di registrazione o monitoraggio.
Il problema del conto personale
Il problema non è l'utilizzo degli strumenti di intelligenza artificiale, ma il modo in cui i dipendenti accedono a questi strumenti. Sicurezza aziendale I modelli presuppongono che i dipendenti utilizzino account aziendali con autenticazione Single Sign-On, registrazione e supervisione. I dati dimostrano che questa ipotesi è errata e circa il 67% dell'utilizzo dell'IA avviene tramite account personali non gestiti. Si tratta di indirizzi Gmail, account Microsoft personali o registrazioni dirette che bypassano completamente i sistemi di identità aziendale. Quando qualcuno accede a ChatGPT con il proprio indirizzo email personale, l'azienda non ha visibilità sulle domande poste, sui dati condivisi o sulle informazioni sensibili che potrebbero apparire nelle risposte.
Anche quando i dipendenti utilizzano account aziendali, tali credenziali spesso non sono federate. L'ottantatré percento di ERP accessi e il 71% di CRM Gli accessi avvengono senza Single Sign-On. Ciò significa che l'accesso aziendale non offre quasi nessuna sicurezza o visibilità in più rispetto a un account personale. Il nome utente potrebbe avere il dominio aziendale, ma l'aggiramento dell'autenticazione consente gli stessi flussi di dati invisibili.
Copia e incolla: la fuga di dati invisibile
Le strategie tradizionali di prevenzione della perdita di dati (DLP) sono state sviluppate concentrandosi sui file system. Monitorano upload, download e allegati. Ma i dati mostrano che la vera fonte della perdita di dati non sono i file. È il copia e incolla. Il 77% dei dipendenti incolla i dati in strumenti di intelligenza artificiale generativa. L'82% di questa attività proviene da account personali non gestiti. In media, ogni dipendente effettua 15 incolla al giorno utilizzando i propri account personali e almeno quattro di questi contengono dati sensibili. dati personali identificabili o informazioni sulla carta di pagamento.
Ciò significa che le informazioni sensibili non si limitano più a essere trasferite tramite upload di file. Vengono anche inserite direttamente in prompt, finestre di chat e campi di testo. Questi trasferimenti senza file sono pressoché invisibili alle soluzioni DLP tradizionali. Avvengono ad alta frequenza, su più piattaforme e al di fuori della supervisione aziendale.
Il risultato è un flusso continuo di dati sensibili che escono dall'organizzazione in modi difficili da rilevare. Il copia e incolla è diventato il nuovo canale di esfiltrazione e gli strumenti di intelligenza artificiale sono... destinazione numero uno.
File sensibili in destinazioni non autorizzate
Il caricamento dei file rimane una parte centrale dei flussi di lavoro aziendali. Ma le destinazioni sono cambiate. I dipendenti non limitano più i caricamenti a un archivio autorizzato o alla posta elettronica. Stanno spostando i file su strumenti di intelligenza artificiale generativa, app consumer e shadow storage. SaaS piattaforme.
I dati mostrano che il 40% dei file caricati su strumenti di intelligenza artificiale generativa contiene dati personali o finanziari. Il 41% dei file caricati su piattaforme di archiviazione file contiene gli stessi dati. Quasi 4 su 10 di questi caricamenti avvengono tramite account personali.
Ciò significa che i dati sensibili confluiscono in ambienti in cui le aziende non hanno visibilità né controllo. Una volta caricato un file su un Google Drive personale, una chat WhatsApp o un prompt di intelligenza artificiale, si trova di fatto al di fuori dei locali aziendali. Non può essere tracciato, limitato o eliminato.
Le destinazioni sono diverse. Strumenti aziendali come Egnyte e Zendesk appaiono accanto a piattaforme di consumo come Canva, LinkedIn e WhatsApp. Questa fusione tra ecosistemi aziendali e consumer sfuma i confini di dove risiedono i dati aziendali. Espone inoltre i limiti della DLP tradizionale, progettata per canali autorizzati e controllo centralizzato.
Cosa significa questo per la sicurezza aziendale
Il perimetro di sicurezza tradizionale è crollato. In passato era possibile controllare i dati gestendo le reti, proteggendo gli endpoint e monitorando le applicazioni autorizzate. Questo modello presuppone che il lavoro si svolga all'interno dei sistemi aziendali e solo occasionalmente utilizzi piattaforme esterne attraverso canali controllati.
La realtà è che ora il lavoro avviene nei browser, su decine di applicazioni, tramite account aziendali e personali, utilizzando metodi che non creano alcun audit trail. Un dipendente che ricerca un problema di un cliente potrebbe cercare nei sistemi interni, incollare i risultati in ChatGPT per un riepilogo, copiare quel riepilogo in Slack da condividere con i colleghi e inoltrare tramite email personale per una revisione successiva. Ogni passaggio comporta il passaggio di dati sensibili attraverso canali che gli strumenti tradizionali non riescono a vedere.
Il browser è diventato il luogo di lavoro principale, ma i controlli di sicurezza non sono stati all'altezza. I dipendenti trascorrono le loro giornate spostandosi tra le applicazioni e i dati mostrano che fanno poca distinzione tra strumenti aziendali e personali. Utilizzano ciò che funziona, ciò che è comodo, ciò che non richiede l'approvazione dell'IT. Questo crea un ambiente in cui le informazioni sensibili fluiscono costantemente verso l'esterno attraverso canali invisibili.
Ripensare la sicurezza aziendale per l'era dell'intelligenza artificiale
La soluzione non è bloccare gli strumenti di intelligenza artificiale o vietare del tutto gli account personali. Questi approcci falliscono perché contrastano il modo in cui i dipendenti lavorano realmente. Gli strumenti esistono perché rendono le persone più produttive. Gli account personali proliferano perché il provisioning aziendale è lento e restrittivo. Una sicurezza che ignora queste realtà verrà semplicemente aggirata.
Una protezione efficace richiede visibilità a livello di browser, dove si svolge effettivamente il lavoro. Ciò significa monitorare non solo il caricamento dei file, ma anche le operazioni di incolla, l'invio di moduli, le interazioni con i prompt e ogni altro modo in cui i dati si spostano tra i sistemi. Significa applicare policy che distinguano tra account aziendali e personali, indipendentemente dall'applicazione utilizzata.
Le organizzazioni devono estendere la prevenzione della perdita di dati oltre i file, includendo anche i trasferimenti senza file. Un prompt inviato a ChatGPT dovrebbe ricevere lo stesso controllo di un allegato email. Un'operazione di incollamento in Slack dovrebbe attivare gli stessi controlli di un caricamento su Google Drive. Il metodo di trasferimento non dovrebbe determinare se la sicurezza sia applicabile.
È necessario applicare controlli di identità efficaci. Non è sufficiente offrire il Single Sign-On se i dipendenti possono comunque accedere alle applicazioni aziendali tramite account personali. Autenticazione federata Deve essere obbligatorio per qualsiasi applicazione che gestisca dati sensibili, non facoltativo. Gli accessi aziendali non federati devono essere trattati come un rischio per la sicurezza.
Conclusione
L'intelligenza artificiale è diventata la categoria in più rapida crescita nel software aziendale. È anche diventata il canale numero uno per l'esfiltrazione dei dati. Il 77% dei dipendenti incolla i dati negli strumenti di intelligenza artificiale. Il 40% dei caricamenti contiene informazioni sensibili. La maggior parte di questa attività avviene tramite account non gestiti. Il vecchio perimetro di sicurezza non esiste più. La maggior parte del lavoro avviene nel browser e anche semplici azioni come incollare un testo possono portare a violazioni. Le aziende che non aggiornano le proprie strategie di sicurezza per questa nuova realtà stanno già perdendo il controllo dei loro dati più preziosi.












