Connect with us

Leader di pensiero

Rivedere le barriere di sicurezza per le applicazioni di intelligenza artificiale

mm

Mentre le applicazioni di intelligenza artificiale vanno oltre i semplici chatbot per diventare sistemi agentiche in grado di agire per conto dell’utente, i rischi crescono esponenzialmente. Le applicazioni agentiche possono eseguire azioni tramite strumenti e ciò apre nuovi vettori di minaccia per gli attaccanti che possono manipolare quegli strumenti per alterare lo stato delle applicazioni e dei dati dell’utente.

I tradizionali sistemi di sicurezza e modelli di guardrail sono stati progettati per minacce strette e ben definite, ma lottano per scalare contro la diversità e la creatività delle tecniche di attacco moderne. Questa nuova realtà richiede un cambiamento di paradigma: applicare l’intelligenza artificiale per difendere l’intelligenza artificiale, abilitando salvaguardie adattive e scalabili che corrispondono all’ingegno e all’imprevedibilità degli avversari di oggi.

Comprendere il rischio ampliato

L’intelligenza artificiale si sta diffondendo in ogni livello del software – dalle CRMs ai calendari, alla posta elettronica, ai flussi di lavoro, ai browser e altro – incorporando l’intelligenza ovunque. Ciò che è iniziato come assistenti conversazionali sta diventando agenti autonomi in grado di eseguire azioni indipendenti.

Un esempio sono gli “agenti” emergenti di OpenAI, che possono navigare su internet o eseguire compiti online. Queste capacità sbloccano un’enorme produttività, ma espongono anche una vasta e inesplorata superficie di attacco. I rischi vanno oltre la perdita di dati e includono la manipolazione del comportamento, l’evasione del modello e gli attacchi di iniezione di prompt – minacce che si evolvono dinamicamente e prendono di mira la logica del modello piuttosto che la sua infrastruttura.

Per le imprese, questo spostamento significa che la sicurezza deve evolversi alla stessa velocità dell’intelligenza artificiale. La sfida per i leader tecnologici e di sicurezza è come proteggere l’innovazione senza rallentarla, una tensione che è sempre esistita tra i team di sicurezza e sviluppo dell’intelligenza artificiale.

Dove le barriere di sicurezza tradizionali falliscono

La maggior parte degli strumenti di sicurezza dell’intelligenza artificiale si basa ancora su modelli di apprendimento automatico statici e a scopo limitato, progettati per riconoscere tipi specifici di attacchi. Ogni nuovo metodo di evasione o di iniezione di prompt richiede spesso la riqualificazione o la ridistribuzione di un modello dedicato. Questo approccio reattivo presume che gli attaccanti si comporteranno in modo prevedibile. Tuttavia, la verità è che gli attaccanti utilizzano ora l’intelligenza artificiale per generare minacce adattive, creative e veloci che le difese tradizionali non possono prevedere.

Anche le barriere di sicurezza considerate all’avanguardia tendono ad essere limitate nella portata e nella capacità, essendo efficaci solo all’interno degli scenari per cui sono state formate. I vecchi paradigmi richiedono la formazione di un modello separato per ogni nuovo attacco, il che è un approccio fragile e insostenibile mentre il numero di tecniche di sfruttamento potenziali sale a centinaia.

Inoltre, persiste una disconnessione culturale tra i team di sicurezza e quelli di intelligenza artificiale. Gli sviluppatori di intelligenza artificiale vedono spesso la sicurezza come un ostacolo – qualcosa che rallenta la loro velocità – mentre i team di sicurezza portano la responsabilità se qualcosa fallisce. Questa mancanza di collaborazione ha lasciato molte organizzazioni vulnerabili per design. Ciò che è necessario sono difese che si integrino perfettamente nel ciclo di vita dell’intelligenza artificiale, fornendo una supervisione senza attrito.

Cambiare la prospettiva: utilizzare l’intelligenza artificiale per difendere l’intelligenza artificiale

Per affrontare queste sfide, emerge un nuovo paradigma di sicurezza: l’intelligenza artificiale che attacca l’intelligenza artificiale malintenzionata e difende la tua intelligenza artificiale. Piuttosto che affidarsi a regole statiche o firme create a mano, questo approccio sfrutta il potere generativo e analitico dei grandi modelli linguistici (LLM) per sondare e proteggere i sistemi di intelligenza artificiale.

  • Red teaming guidato dall’intelligenza artificiale: gli LLM possono simulare una vasta gamma di comportamenti avversari, inclusi l’evasione del modello, l’iniezione di prompt e l’abuso dell’agente. Sfruttando modelli “non allineati” o “rogue” per testare creativamente le applicazioni, le organizzazioni ottengono una comprensione più ricca e realistica delle vulnerabilità prima che gli attaccanti le sfruttino.
  • Difesa continua e adattiva: gli stessi sistemi di intelligenza artificiale possono essere addestrati per imparare da ogni attacco e rafforzare automaticamente le difese. Invece di gestire centinaia di modelli a scopo limitato, le organizzazioni possono distribuire un singolo strato di difesa scalabile in grado di riconoscere e adattarsi a minacce diverse, mantenendo al contempo una latenza e prestazioni coerenti.

Questo segna un cambiamento fondamentale dal test manuale, punto nel tempo, a guardrail viventi che evolvono insieme ai sistemi che proteggono.

Costruire un ecosistema auto-difensivo

L’intelligenza artificiale che difende l’intelligenza artificiale non migliora solo la rilevazione; trasforma l’intera postura difensiva. Quando integrati correttamente, questi sistemi possono:

  • Scalare la protezione senza sforzo generalizzando su più tipi di attacco.
  • Migliorare continuamente mentre incontrano nuove minacce in produzione.
  • Colmare il divario tra i team di intelligenza artificiale e di sicurezza, abilitando una supervisione che non impedisce l’innovazione.
  • Fornire visibilità nelle complesse superfici di rischio introdotte dal comportamento agente, dove i sistemi di intelligenza artificiale agiscono in modo autonomo negli ambienti digitali.

L’obiettivo è costruire sistemi di sicurezza che pensano come gli attaccanti, anticipano le loro mosse ed evolvono altrettanto rapidamente.

Un appello a una mentalità adattiva

L’industria è a un punto di svolta. Dopo l’entusiasmo iniziale del 2023-2024, molte iniziative di intelligenza artificiale aziendale si sono fermate perché hanno incontrato venti contrari in produzione. Ciò non è stato a causa di una mancanza di potenziale, ma perché le infrastrutture e i paradigmi di sicurezza non potevano stare al passo. Mentre l’intelligenza artificiale si integra ora in flussi di lavoro critici, le conseguenze di una progettazione non sicura si magnificheranno solo.

Le organizzazioni devono adottare una mentalità di sicurezza adattiva, in cui i sistemi di intelligenza artificiale monitorano, testano e rafforzano continuamente altri sistemi di intelligenza artificiale. Ciò significa incorporare guardrail intelligenti fin dall’inizio, piuttosto che aggiungerli in seguito. È assurdo pensare a software che non sia nativamente basato sull’intelligenza artificiale e pericoloso pensare a un’intelligenza artificiale che non sia nativamente sicura.

Guardrail di intelligenza artificiale viventi

L’intelligenza artificiale è il nuovo fondamento del software e, come ogni fondamento, la sua forza dipende da quanto bene può resistere allo stress. Le difese statiche non possono affrontare il momento. La prossima era della sicurezza apparterrà ai sistemi auto-apprendenti (intelligenza artificiale che difende l’intelligenza artificiale) che corrispondono alla velocità, alla creatività e alla scala delle minacce che affronta. Solo insegnando all’intelligenza artificiale a proteggersi possiamo assicurare il futuro che sta aiutando a costruire.

Girish Chandrasekar è il Capo del Prodotto di Straiker, aiutando a portare l'azienda da zero a uno. In precedenza faceva parte del team di prodotto di Robust Intelligence (acq. Cisco), e prima di allora, ha lavorato in ruoli tecnici nei team di Machine Learning di Postmates e JPMorgan Asset Management.