Seguici sui social

Il rischio dell'IA che nessuno sta monitorando: l'esposizione di segreti nei flussi di lavoro aziendali.

Leader del pensiero

Il rischio dell'IA che nessuno sta monitorando: l'esposizione di segreti nei flussi di lavoro aziendali.

mm

La maggior parte delle discussioni sui rischi dell'IA aziendale inizia con una preoccupazione familiare: i dipendenti che incollano i dati dei clienti nei chatbot. La privacy e l'esposizione normativa dominano i titoli e i briefing del consiglio di amministrazione, e ricerca di Deloitte I risultati mostrano che la privacy e la sicurezza dei dati rientrano tra i principali rischi legati all'IA che preoccupano le organizzazioni.

Eppure, i dati che emergono dall'utilizzo reale nelle aziende raccontano una storia diversa. Le informazioni sensibili più comuni che confluiscono negli strumenti di intelligenza artificiale non sono affatto dati personali, bensì segreti e credenziali.

Le chiavi API, i token di accesso, i webhook e gli artefatti di autenticazione rappresentano ormai la quota maggiore di dati sensibili esposti nelle richieste di intelligenza artificiale. Queste divulgazioni raramente derivano da negligenza o intento malevolo, bensì da attività di routine come il debug di un'integrazione non riuscita, la risoluzione di problemi di automazione, il test del codice o la risoluzione di un problema del cliente. Con l'integrazione dell'IA nei flussi di lavoro quotidiani, questi episodi si verificano costantemente e spesso al di fuori della visibilità dei tradizionali controlli di sicurezza.

Le conseguenze sono evidenti. Con l'espansione dell'adozione dell'IA, le organizzazioni ottengono un quadro più preciso di dove emergono i rischi reali e la governance deve evolversi per affrontarli.

Un rischio di esposizione dei dati relativi all'IA, spesso trascurato, si nasconde in bella vista.

Un recente AI analisi dell'utilizzo Uno studio condotto da Nudge Security ha esaminato i dati di telemetria anonimizzati provenienti da diversi ambienti aziendali per comprendere come gli strumenti di intelligenza artificiale vengano effettivamente utilizzati sul posto di lavoro. Invece di basarsi su sondaggi o autodichiarazioni, la ricerca ha analizzato l'attività di intelligenza artificiale osservata, le integrazioni e il comportamento dei prompt negli ecosistemi SaaS aziendali.

I risultati forniscono nuove informazioni su dove sta effettivamente emergendo il rischio legato all'IA nell'utilizzo aziendale. Le esposizioni di dati sensibili nei prompt dell'IA sono dominate dalle credenziali operative. Segreti e credenziali rappresentano circa il 48% degli eventi di dati sensibili rilevati, rispetto al 36% per i dati finanziari e al 16% per le informazioni sanitarie. Questi modelli suggeriscono che la sfida più significativa in termini di esposizione dei dati da parte dell'IA non è la violazione della privacy, bensì la proliferazione di segreti.

La stessa ricerca dimostra che l'adozione dell'IA è andata oltre la fase sperimentale. Gli strumenti di IA sono integrati nei flussi di lavoro, nelle piattaforme aziendali principali e sono sempre più in grado di agire in modo autonomo. I principali fornitori di modelli linguistici sono ormai quasi onnipresenti, con OpenAI presente nel 96% delle organizzazioni e Anthropic nel 78%.

Ricerca da McKinsey Secondo uno studio, l'88% delle organizzazioni dichiara di utilizzare regolarmente l'intelligenza artificiale in almeno una funzione aziendale, rispetto al 78% di un anno fa. Strumenti di analisi delle riunioni, piattaforme di programmazione assistita dall'IA, generatori di presentazioni e tecnologie vocali sono ampiamente diffusi, a dimostrazione di come l'IA si sia espansa dalle interfacce di chat ai flussi di lavoro quotidiani. Questa espansione è importante perché il rischio è legato all'utilizzo. Man mano che l'IA si integra negli ambienti di sviluppo, nelle piattaforme di collaborazione e nei flussi di lavoro dell'assistenza clienti, si avvicina sempre più a sistemi sensibili e dati operativi.

L'adozione è stata inoltre guidata dal basso verso l'alto. recente studio di KPMG hanno scoperto che il 44% dei dipendenti utilizza strumenti di intelligenza artificiale in modi non autorizzati dai datori di lavoro, a dimostrazione della rapidità con cui questi strumenti entrano nei flussi di lavoro quotidiani. I dipendenti installano estensioni del browser, collegano assistenti e sperimentano integrazioni per accelerare le attività quotidiane, spesso al di fuori dei processi di approvvigionamento centralizzati. Gli analisti della sicurezza descrivono questo modello come ombra IA, in cui gli strumenti operano all'interno dei browser e dei flussi di lavoro SaaS al di là della tradizionale visibilità IT. Poiché questi strumenti possono essere implementati istantaneamente e richiedono una configurazione tecnica minima, i programmi di governance basati sui processi di approvazione dei fornitori e sulle politiche di utilizzo accettabile faticano a tenere il passo con il modo in cui l'IA viene effettivamente introdotta e utilizzata in azienda.

Perché la divulgazione di segreti può creare un rischio operativo immediato

I dati personali rimangono sensibili e regolamentati, ma i segreti hanno un impatto operativo immediato. Una chiave API trapelata può fornire accesso ai sistemi di produzione. Un token compromesso può esporre i repository. Un URL webhook può consentire automazioni non autorizzate. Le credenziali compaiono frequentemente nei prompt dell'IA durante i flussi di lavoro di routine. Gli sviluppatori incollano i token nelle interfacce di chat durante la risoluzione dei problemi di autenticazione, gli ingegneri possono condividere frammenti di configurazione per diagnosticare problemi di integrazione. Queste azioni non sono insolite. I segreti sono incorporati nei flussi di lavoro tecnici e compaiono nei log, negli script, nei file di configurazione e negli output di automazione. Quando i team sono sotto pressione per risolvere rapidamente i problemi, possono condividere questi artefatti senza fermarsi a considerare quali dati sensibili contengono.

Le interfacce basate sull'intelligenza artificiale amplificano questo comportamento. I prompt incoraggiano la condivisione del contesto. Il caricamento di file supporta una risoluzione dei problemi più efficace. I flussi di lavoro integrativi semplificano lo spostamento dei dati tra i sistemi. Una ricerca di Nudge Security ha rilevato che il 17% dei prompt include attività di copia e incolla o caricamenti di file. In questo contesto, le credenziali sensibili possono essere esposte in pochi secondi.

La governance tradizionale non tiene conto del rischio comportamentale.

I programmi di governance dell'IA si concentrano spesso su controlli formali come politiche e strumenti approvati. Questo approccio presuppone che il rischio derivi da un uso improprio o da un comportamento scorretto del modello. In pratica, le esposizioni più significative si verificano durante i flussi di lavoro di routine svolti da dipendenti in buona fede.

Il panorama dell'IA si evolve rapidamente, con nuove tecnologie rilasciate quotidianamente. Man mano che i vostri dipendenti si affidano agli strumenti più recenti, riescono a eludere l'approccio tradizionale dei controlli di rete, semplicemente perché non riescono a stare al passo. Il browser consente l'osservazione diretta del comportamento contestuale, offrendo la flessibilità necessaria per rimanere al passo con il panorama in continua evoluzione del lavoro moderno.

Questa discrepanza spiega perché le organizzazioni possono implementare politiche rigorose eppure subire comunque l'esposizione di dati sensibili. Le politiche stabiliscono le aspettative, ma il comportamento determina i risultati. Una governance efficace richiede visibilità su come vengono effettivamente utilizzati gli strumenti di intelligenza artificiale e meccanismi di controllo che guidino decisioni più sicure nel momento in cui i dati vengono condivisi.

Integrazioni e agenti ampliano la portata dell'esposizione

Il profilo di rischio di uno strumento di intelligenza artificiale è determinato dalle risorse a cui può accedere. Le integrazioni creano percorsi affidabili tra i sistemi. Le autorizzazioni OAuth, i token API e gli account di servizio consentono agli strumenti di intelligenza artificiale di recuperare documenti, aggiornare ticket o interagire con repository di codice. La ricerca sull'adozione dell'IA in ambito aziendale evidenzia come le integrazioni definiscano efficacemente l'ambito di esposizione. Un'autorizzazione configurata in modo errato o un token compromesso possono esporre interi repository di documenti o ambienti di sviluppo, poiché le connessioni affidabili consentono il trasferimento dei dati alla velocità della macchina.

L'IA agentica introduce ulteriore complessità. Le prime implementazioni spesso privilegiano la funzionalità rispetto al principio del minimo privilegio. Le autorizzazioni concesse durante la fase di sperimentazione possono persistere a lungo anche dopo che i casi d'uso iniziali si sono evoluti. Nel tempo, queste autorizzazioni accumulate creano un rischio latente. I team di sicurezza devono considerare le integrazioni e le autorizzazioni degli agenti come decisioni di accesso permanenti, piuttosto che come comodità temporanee.

Cosa dovrebbero fare ora i team di sicurezza

Ridurre l'esposizione di informazioni riservate nei flussi di lavoro basati sull'IA richiede un passaggio da controlli reattivi a una governance che rifletta il modo in cui il lavoro si svolge effettivamente. I responsabili della sicurezza possono iniziare con misure pratiche che migliorano la visibilità, promuovono comportamenti più sicuri e riducono l'esposizione senza rallentare la produttività:

  • Mappa i punti in cui si verificano le interazioni con l'intelligenza artificiale.
    Identifica gli ambienti in cui i dati entrano negli strumenti di intelligenza artificiale, tra cui estensioni del browser, ambienti di sviluppo, piattaforme di automazione e interfacce di chat. Una visibilità continua su questi punti di contatto fornisce le basi per una governance efficace.
  • Intervenire nel momento in cui vengono prese le decisioni.
    Implementare la scansione delle credenziali, le richieste di oscuramento e gli avvisi just-in-time che avvisano gli utenti quando le credenziali o i dati sensibili stanno per essere condivisi. Una guida tempestiva riduce l'esposizione accidentale, preservando al contempo la velocità del flusso di lavoro.
  • Applicare la governance dell'integrazione con lo stesso rigore delle applicazioni OAuth.
    Esamina gli strumenti di intelligenza artificiale connessi a e-mail, documenti, sistemi di ticketing e repository. Applica il principio del minimo privilegio ed effettua revisioni periodiche delle autorizzazioni per ridurre il rischio di esposizione a lungo termine.
  • Creare flussi di lavoro più sicuri per la risoluzione dei problemi e l'assistenza.
    Fornire modelli anonimizzati, connettori sicuri e strumenti interni per l'analisi di log o file di configurazione, in modo che i team possano utilizzare l'intelligenza artificiale per la risoluzione dei problemi senza esporre le credenziali di accesso.
  • Definire delle linee guida per l'automazione basata su agenti.
    Richiedi l'approvazione umana per le azioni di grande impatto, registra centralmente l'attività degli agenti e utilizza token di accesso limitati per prevenire la proliferazione delle autorizzazioni e l'automazione indesiderata.
  • Formazione pratica in flussi di lavoro reali.
    La formazione è più efficace quando riflette attività comuni come il debug delle integrazioni, la revisione dei log o il caricamento dei file. Gli esempi pratici aiutano i dipendenti a riconoscere il rischio nel momento in cui si presenta.

Queste misure allineano la governance al lavoro quotidiano, consentendo alle organizzazioni di ridurre l'esposizione delle informazioni riservate e al contempo di favorire gli aumenti di produttività che guidano l'adozione dell'IA.

Dalle politiche sull'IA alla governance comportamentale dell'IA.

L'IA si sta evolvendo da strumento di produttività a livello operativo integrato nel lavoro quotidiano, con ricerca mostra Gli agenti di intelligenza artificiale sono ormai integrati nei flussi di lavoro aziendali e le previsioni proiettano agenti specifici per determinate attività all'interno di una quota considerevole di applicazioni aziendali. Con l'aumentare dell'adozione, i rischi principali vanno oltre le violazioni della privacy o l'uso improprio dei modelli. Essi derivano dall'interazione tra persone, autorizzazioni e piattaforme nei flussi di lavoro reali.

La divulgazione di informazioni riservate nei prompt dell'IA è un segnale tangibile di questa più ampia trasformazione. Evidenzia i limiti dei controlli perimetrali e della governance basata esclusivamente sulle policy, rafforzando la necessità di meccanismi di protezione che operino laddove vengono prese le decisioni. Le organizzazioni che si adatteranno supereranno i controlli reattivi e adotteranno modelli di governance fondati sul comportamento reale. Tratteranno integrazioni e autorizzazioni come relazioni di accesso permanenti. Guideranno i dipendenti nel momento dell'azione, anziché affidarsi esclusivamente all'applicazione delle policy.

Nell'ambiente lavorativo moderno, l'intelligenza artificiale si sta trasformando da strumento a collaboratore. Garantire questa collaborazione richiede una governance al passo con i tempi, che protegga i dati critici, guidi decisioni più sicure e mantenga la velocità e l'efficienza rese possibili dall'IA.

Russell Spitler è il co-fondatore e CEO di Nudge SecurityRussell è leader nella governance della sicurezza SaaS e AI. Vanta oltre 20 anni di esperienza nella creazione di prodotti e startup che proteggono organizzazioni in tutto il mondo. Prima di Nudge, Russell ha ricoperto ruoli di leadership in ambito prodotto, ingegneria e strategia presso AT&T Cybersecurity, AlienVault (acquisita da AT&T Cybersecurity) e Fortify Software. In AlienVault, ha co-fondato l'Open Threat Exchange, la più grande community di intelligence sulle minacce informatiche al mondo, con oltre 370,000 partecipanti a livello globale.