Connect with us

Leader di pensiero

LLM e Intelligenza Artificiale Generativa Risolveranno un Problema Ventennale nella Sicurezza delle Applicazioni?

mm

Nel panorama in continua evoluzione della sicurezza informatica, rimanere un passo avanti rispetto agli attori malintenzionati è una sfida costante. Negli ultimi due decenni, il problema della sicurezza delle applicazioni è persistito, con metodi tradizionali spesso insufficienti nel rilevare e mitigare le minacce emergenti. Tuttavia, una promettente nuova tecnologia, Intelligenza Artificiale Generativa (GenAI), è pronta a rivoluzionare il settore. In questo articolo, esploreremo come l’Intelligenza Artificiale Generativa sia rilevante per la sicurezza, perché affronta sfide di lunga data che gli approcci precedenti non potevano risolvere, le potenziali interruzioni che può portare all’ecosistema della sicurezza e come si differenzia dai modelli di apprendimento automatico (ML) più vecchi.

Perché il Problema Richiede Nuove Tecnologie

Il problema della sicurezza delle applicazioni è multifacético e complesso. Le misure di sicurezza tradizionali si sono basate principalmente sull’abbinamento di modelli, rilevamento basato su firme e approcci basati su regole. Sebbene efficaci in casi semplici, questi metodi lottano per affrontare i modi creativi in cui gli sviluppatori scrivono il codice e configurano i sistemi. Gli avversari moderni costantemente evolvono le loro tecniche di attacco, allargano la superficie di attacco e rendono l’abbinamento di modelli insufficiente per la salvaguardia contro i rischi emergenti. Ciò richiede un cambiamento di paradigma negli approcci alla sicurezza, e l’Intelligenza Artificiale Generativa detiene una possibile chiave per affrontare queste sfide.

La Magia di LLM nella Sicurezza

L’Intelligenza Artificiale Generativa è un avanzamento rispetto ai modelli più vecchi utilizzati negli algoritmi di apprendimento automatico che erano grandi nel classificare o raggruppare dati in base all’apprendimento di campioni sintetici. I moderni LLM sono addestrati su milioni di esempi da grandi repository di codice (ad esempio, GitHub) che sono parzialmente etichettati per problemi di sicurezza. Imparando da grandi quantità di dati, i modelli LLM moderni possono comprendere i modelli, le strutture e le relazioni sottostanti all’interno del codice dell’applicazione e dell’ambiente, consentendo loro di identificare potenziali vulnerabilità e prevedere vettori di attacco dati gli input e la priming giusti.

Un altro grande avanzamento è la capacità di generare campioni di correzione realistici che possono aiutare gli sviluppatori a comprendere la causa radice e risolvere i problemi più velocemente, specialmente in organizzazioni complesse in cui i professionisti della sicurezza sono isolati e sovraccarichi.

Interruzioni Imminenti Abilitate da GenAI

L’Intelligenza Artificiale Generativa ha il potenziale di interrompere l’ecosistema della sicurezza delle applicazioni in diversi modi:

Rilevamento Automatico delle Vulnerabilità: gli strumenti di scansione delle vulnerabilità tradizionali spesso si basano sulla definizione manuale delle regole o sull’abbinamento di modelli limitato. L’Intelligenza Artificiale Generativa può automatizzare il processo imparando da ampie repository di codice e generando campioni sintetici per identificare le vulnerabilità, riducendo il tempo e lo sforzo richiesti per l’analisi manuale.

Simulazione di Attacchi Avversari: i test di sicurezza di solito coinvolgono la simulazione di attacchi per identificare i punti deboli in un’applicazione. L’Intelligenza Artificiale Generativa può generare scenari di attacco realistici, inclusi attacchi sofisticati e multi-step, consentendo alle organizzazioni di rafforzare le loro difese contro minacce del mondo reale. Un grande esempio è “BurpGPT”, una combinazione di GPT e Burp, che aiuta a rilevare problemi di sicurezza dinamici.

Generazione Intelligente di Patch: generare patch efficaci per le vulnerabilità è un compito complesso. L’Intelligenza Artificiale Generativa può analizzare le basi di codice esistenti e generare patch che affrontano vulnerabilità specifiche, risparmiando tempo e minimizzando gli errori umani nel processo di sviluppo delle patch.

Mentre questo tipo di correzioni è stato tradizionalmente rifiutato dall’industria, la combinazione di correzioni di codice automatizzate e la capacità di generare test da parte di GenAI potrebbe essere un ottimo modo per l’industria di spingere i confini a nuovi livelli.

Intelligence sulle Minacce Migliorata: l’Intelligenza Artificiale Generativa può analizzare grandi volumi di dati relativi alla sicurezza, inclusi rapporti di vulnerabilità, modelli di attacco e campioni di malware. GenAI può migliorare notevolmente le capacità di intelligence sulle minacce generando insight e identificando tendenze emergenti da un’indicazione iniziale a un piano di gioco azionabile reale, consentendo strategie di difesa proattive.

Il Futuro di LLM e Sicurezza delle Applicazioni

I LLM hanno ancora lacune nel raggiungere la sicurezza delle applicazioni perfetta a causa della loro limitata comprensione del contesto, copertura del codice incompleta, mancanza di valutazione in tempo reale e assenza di conoscenze specifiche del dominio. Per affrontare queste lacune nei prossimi anni, una soluzione probabile dovrà combinare approcci LLM con strumenti di sicurezza dedicati, fonti di arricchimento esterne e scanner. I progressi continui nell’AI e nella sicurezza aiuteranno a colmare queste lacune.

In generale, se si dispone di un set di dati più grande, è possibile creare un LLM più preciso. Ciò vale anche per il codice, quindi quando avremo più codice nello stesso linguaggio, potremo utilizzarlo per creare LLM migliori, che a loro volta guideranno una migliore generazione di codice e sicurezza in futuro.

Ci aspettiamo che nei prossimi anni, saremo testimoni di avanzamenti nella tecnologia LLM, inclusa la capacità di utilizzare dimensioni di token più grandi, che ha un grande potenziale per migliorare ulteriormente la sicurezza informatica basata sull’AI in modi significativi.

Neatsun Ziv è il CEO e co-fondatore di OX Security, la prima soluzione di sicurezza della catena di approvvigionamento software end-to-end per DevSecOps. Prima di fondare OX, era il VP Cyber Security di Check Point, dove sovraintendeva a tutte le iniziative di cyber sicurezza. Il suo team è stato uno dei primi a rispondere a SolarWinds, NotPetya e altri attacchi importanti, lavorando a stretto contatto con Interpol, Local CERT e altre agenzie di applicazione della legge.