Connect with us

Leader di pensiero

Proteggere la catena di approvvigionamento del software con l’AI

mm

Non è un segreto che il software fa parte della nostra vita quotidiana. Lo usiamo per gestire i nostri orari, connetterci con amici e familiari, gestire le nostre finanze e eseguire compiti quotidiani per il lavoro. La comodità e la velocità che ci offre, offrono anche ai cybercriminali. Soprattutto negli ultimi anni, è stato impossibile ignorare l’impatto degli attacchi informatici, che hanno chiuso le utility, congelato le operazioni di grandi aziende, fatto trapelare informazioni personali e competitive altamente sensibili e sono stati utilizzati per estrarre milioni e milioni di dollari in riscatto aggregato.

I vantaggi e le sfide dell’AI

L’intelligenza artificiale (AI) ha generato nuove possibilità emozionanti per noi nel commercio e nell’efficienza quotidiana, e ha fatto la stessa cosa per i cybercriminali. Anno dopo anno, vediamo aumentare la portata e la sofisticazione degli attacchi. Con la crescita di tecnologie innovative come le reti edge – che consentono la prossima fase di evoluzione per cose come le auto autonome e il 6G – generiamo anche più vettori di attacco per gli attori minacciosi da sfruttare. È chiaro ora che la cyber sicurezza non è solo essenziale per proteggere la base della nostra vita oggi, ma anche per proteggere il successo del nostro futuro. La sicurezza alimentata dall’AI è indispensabile per questa sfida.

Un’immagine speculare di ciò che fa per gli attaccanti, l’AI serve come moltiplicatore di forza per i difensori. La scala è uno dei grandi driver del business, naturalmente, ma anche la complessità, soprattutto quando si tratta di reti. L’AI può aumentare esponenzialmente la capacità di un buon team di sicurezza, consentendo loro di trovare, prioritizzare e rimediare alle vulnerabilità della rete che potrebbero essere state perse nel mucchio prima. La precisione è fondamentale qui: prioritizzando i rischi più pericolosi attraverso l’AI, i team di sicurezza sono in grado di ridurre progressivamente il rischio in modo continuo.

Oltre gli aspetti più tecnici, l’AI combinata con passaggi come la consolidazione della sicurezza genera benefici immensi quando si tratta dell’esperienza utente. Piuttosto che padroneggiare una moltitudine di strumenti distinti (e a volte abbastanza arcani) con interoperabilità limitata e portali separati, gli utenti sono potenziati dagli strumenti AI per lavorare in un’interfaccia intuitiva e conversazionale. In modo cruciale, consente ai team di lavorare da un’unica vetrina centrale, offrendo una finestra singola sull’intera rete da cui strategizzare e orchestrare la sicurezza.

Ciò crea efficienze di flusso di lavoro che sono impossibili da replicare senza consolidazione e AI. Naturalmente, interagiamo con l’AI nella sua forma software anche. Ciò significa che non è immune dall’exploitazione. La sicurezza dell’AI – non solo nella sicurezza, ma anche negli strumenti operativi – deve essere una priorità.

In effetti, i modelli AI stessi stanno diventando un bersaglio, poiché gli avversari cercano di influenzare come l’AI è addestrata e opera attraverso il velenamento dei dati e trovando e sfruttando le debolezze direttamente attraverso i prompt. Possono utilizzare la tecnologia deepfake per erodere le salvaguardie come la chat vocale e video. Distribuiscono l’AI generativa per creare esche di phishing grammaticalmente perfette per l’ingegneria sociale. Gli strumenti AI specializzati possono scansionare le reti per trovare e sfruttare le vulnerabilità a una scala senza precedenti. Ci sono diversi passaggi chiave che le organizzazioni devono intraprendere per proteggere l’utilizzo dell’AI.

I vantaggi della fiducia zero per l’intelligenza artificiale

In primo luogo, è importante governare rigorosamente l’accesso ai servizi e ai dati AI. L’accesso alla rete di fiducia zero (ZTNA) è una parte integrante della maggior parte delle piattaforme di sicurezza alimentate dall’AI centralizzate, ed è una delle più cruciali. Senza una rigorosa segmentazione, le aziende rimangono vulnerabili a un attaccante, che può entrare attraverso qualsiasi numero di vettori – più comunemente credenziali compromesse – e poi muoversi lateralmente alle operazioni e ai dati più profittevoli e dannosi. Con la fiducia zero, a ogni persona viene concesso solo l’accesso necessario per eseguire il proprio lavoro e non più, limitando le conseguenze di qualsiasi accesso non autorizzato. Oltre a ciò, la fiducia zero può anche identificare il comportamento dell’utente che cade al di fuori del suo ambito tipico, in modo che anche le situazioni di compromissione dell’utente più mirate possano essere identificate e risolte rapidamente.

La ZTNA deve essere combinata con altre salvaguardie specifiche dell’AI. La sicurezza del flusso di lavoro dell’AI, in modo che le organizzazioni abbiano una buona comprensione dei dati che stanno ingerendo, della loro provenienza e della loro utilità specifica, piuttosto che raccogliere qualsiasi cosa sia disponibile, è una priorità. L’istruzione degli utenti sarà sempre più importante anche, poiché gli strumenti AI, in particolare gli strumenti generativi come ChatGPT, si diffondono ai dipendenti non tecnici quotidiani. Stabilire un protocollo per prompt sicuri è un esempio, in modo che i dipendenti non caricano involontariamente segreti commerciali, intelligenza competitiva o altri dati sensibili ai motori AI pubblici. Abbiamo già visto l’impatto che ciò può avere sulle aziende, addirittura annullando i brevetti.

L’AI è più di una moda passeggera. Ha le caratteristiche di una tecnologia fondamentale su cui può essere costruita l’innovazione del futuro. Ma per realizzare quei guadagni, la sicurezza diventa un obiettivo strategico primario, un motore di innovazione, piuttosto che un pensiero successivo. L’implementazione di sistemi di sicurezza alimentati dall’AI centralizzati per proteggere l’utilizzo dell’AI è il primo passo verso il futuro. Sfruttando la sicurezza dell’AI in questo modo, le organizzazioni possono sfruttare efficacemente l’intero set di strumenti per essere più efficienti e guidare migliori operazioni, qualità, crescita e sviluppo.

Mark Ostrowski è il capo dell'ingegneria per la regione est degli Stati Uniti presso Check Point Software. Mark ha oltre 20 anni di esperienza nella sicurezza IT e ha aiutato a progettare e supportare alcuni degli ambienti di sicurezza più grandi del paese. In qualità di evangelista presso Check Point Software, Mark fornisce leadership di pensiero per l'industria della sicurezza IT, delineando il panorama attuale delle minacce e aiutando le organizzazioni a comprendere come possono mitigare e gestire proattivamente il rischio nel nostro mondo di trasformazione digitale. Mark detiene un titolo presso il college di ingegneria di UMass Dartmouth.