Seguici sui social

Leader del pensiero

Il tuo agente non è più solo un chatbot: perché lo tratti ancora come tale?

mm

Agli albori dell'intelligenza artificiale generativa, lo scenario peggiore per un chatbot che si comportava male era spesso poco più che un imbarazzo pubblico. il chatbot potrebbe allucinare i fatti, sputare messaggi di parte o addirittura insultarti. Questo era già abbastanza grave. Ma ora, ti abbiamo consegnato le chiavi.

Benvenuti nell'era degli agenti.

Da chatbot ad agente: il passaggio all'autonomia

I chatbot erano reattivi. Rimanevano nelle loro corsie. Fai una domanda, ottieni una risposta. Ma gli agenti di intelligenza artificiale, soprattutto quelli basati sull'uso di strumenti, sull'esecuzione di codice e sulla memoria persistente, possono eseguire attività in più fasi, invocare API, eseguire comandi e scrivere e distribuire codice in modo autonomo.

In altre parole, non si limitano a rispondere a richieste: prendono decisioni. E come qualsiasi esperto di sicurezza vi dirà, una volta che un sistema inizia a intervenire nel mondo, è meglio prendere sul serio la sicurezza e il controllo.

Cosa ci aveva avvisato nel 2023

Noi di OWASP abbiamo iniziato a mettere in guardia da questo cambiamento più di due anni fa. Nella prima pubblicazione della classifica OWASP Top 10 per le domande di ammissione agli LLM, abbiamo coniato il termine "Excessive Agency".

L'idea era semplice: quando si concede a un modello troppa autonomia – troppi strumenti, troppa autorità, poca supervisione – inizia a comportarsi più come un agente libero che come un assistente vincolato. Magari pianifica le riunioni. Magari cancella un file. Magari fornisce un'infrastruttura cloud eccessiva e costosa.

Se non si presta attenzione, inizia a comportarsi come un vice sceriffo confuso... o peggio, come un agente nemico dormiente che aspetta solo di essere sfruttato in un incidente di sicurezza informatica. In recenti esempi reali, agenti di importanti prodotti software come Copilota Microsoft, Prodotto Slack di Salesforce si sono rivelati entrambi vulnerabili e indotti a usare i loro privilegi elevati per sottrarre dati sensibili.

E ora questa ipotesi assomiglia sempre meno a un film di fantascienza e sempre più alla vostra tabella di marcia per il terzo trimestre.

Scopri MCP: il livello di controllo degli agenti (o no?)

Facciamo un salto al 2025: stiamo assistendo a un'ondata di nuovi standard e protocolli progettati per gestire questa esplosione di funzionalità degli agenti. Il più importante di questi è il Model Context Protocol (MCP) di Anthropic, un meccanismo per mantenere memoria condivisa, strutture di attività e accesso agli strumenti durante sessioni di agenti di intelligenza artificiale di lunga durata.

Pensate a MCP come al collante che tiene insieme il contesto di un agente attraverso strumenti e tempo. È un modo per dire al vostro assistente di programmazione: "Ecco cosa hai fatto finora. Ecco cosa ti è consentito fare. Ecco cosa dovresti ricordare".

È un passo necessario. Ma solleva anche nuovi interrogativi.

MCP è un facilitatore di capacità. Dove sono i limiti?

Finora, l'attenzione di MCP si è concentrata sull'ampliare le possibilità degli agenti, non sul limitarle.

Sebbene il protocollo aiuti a coordinare l'uso degli strumenti e a preservare la memoria tra le attività degli agenti, non affronta ancora problemi critici come:

  • Resistenza all'iniezione rapida: Cosa succede se un aggressore manipola la memoria condivisa?
  • Ambito del comando: L'agente può essere ingannato e indotto a superare i propri permessi?
  • Abuso di token: Un blob di memoria trapelato potrebbe esporre le credenziali API o i dati utente?

Questi non sono problemi teorici. Un recente esame delle implicazioni per la sicurezza ha rivelato che le architetture in stile MCP sono vulnerabili a prompt injection, uso improprio dei comandi e persino a memory poisoning, soprattutto quando la memoria condivisa non è adeguatamente definita o crittografata.

Questo è il classico problema del "potere senza supervisione". Abbiamo costruito l'esoscheletro, ma non abbiamo ancora capito dove si trova l'interruttore di spegnimento.

Perché i CISO dovrebbero prestare attenzione, ora

Non stiamo parlando di tecnologie del futuro. Ci riferiamo a strumenti che i vostri sviluppatori stanno già utilizzando e che rappresentano solo l'inizio di un'implementazione massiccia che vedremo in azienda.

Agenti di programmazione come Claude Code e Cursor stanno guadagnando sempre più popolarità nei flussi di lavoro aziendali. Una ricerca interna di GitHub ha dimostrato che Copilot potrebbe velocizzare le attività del 55%. Più recentemente, Anthropic ha riportato che il 79% dell'utilizzo di Claude Code era incentrato su esecuzione automatizzata delle attività, non solo suggerimenti di codice.

Questa è vera produttività. Ma è anche vera automazione. Non sono più copiloti. Volano sempre più da soli. E la cabina di pilotaggio? È vuota.

Il CEO di Microsoft, Satya Nadella, ha recentemente affermato che l'intelligenza artificiale (IA) ora scrive fino al 30% del codice Microsoft. Il CEO di Anthropic, Dario Amodei, si è spinto oltre, prevedendo che l'IA genererà il 90% del nuovo codice entro sei mesi.

E non si tratta solo di sviluppo software. Il Model Context Protocol (MCP) viene ora integrato in strumenti che vanno oltre la codifica, comprendendo lo smistamento delle email, la preparazione delle riunioni, la pianificazione delle vendite, la sintesi dei documenti e altre attività di produttività ad alto impatto per gli utenti generici. Sebbene molti di questi casi d'uso siano ancora in fase iniziale, stanno maturando rapidamente. Questo cambia la posta in gioco. Non si tratta più solo di una discussione per il vostro CTO o VP of Engineering. Richiede l'attenzione dei responsabili delle business unit, dei CIO, dei CISO e dei Chief AI Officer. Man mano che questi agenti iniziano a interagire con dati sensibili ed eseguire flussi di lavoro interfunzionali, le organizzazioni devono garantire che governance, gestione del rischio e pianificazione strategica siano parte integrante della conversazione fin dall'inizio.

Cosa deve succedere dopo

È ora di smettere di pensare a questi agenti come a chatbot e iniziare a considerarli come sistemi autonomi con reali requisiti di sicurezza. Ciò significa:

  • Limiti dei privilegi dell'agente: Proprio come non si esegue ogni processo come root, gli agenti necessitano di un accesso circoscritto a strumenti e comandi.
  • Governance della memoria condivisa: La persistenza del contesto deve essere verificata, sottoposta a controllo di versione e crittografata, soprattutto quando è condivisa tra sessioni o team.
  • Simulazioni di attacco e red teaming: L'iniezione rapida, l'avvelenamento della memoria e l'uso improprio dei comandi devono essere trattati come minacce alla sicurezza di massimo livello.
  • La formazione dei dipendenti: L'uso sicuro ed efficace degli agenti di intelligenza artificiale è una competenza nuova e richiede formazione. Questo li aiuterà a essere più produttivi e a proteggere la vostra proprietà intellettuale.

Quando la tua organizzazione si immerge nell'uso di agenti intelligenti, spesso è meglio procedere a passo spedito. Acquisisci esperienza con agenti con ambito, dati e permessi limitati. Impara man mano che costruisci i guardrail e l'esperienza organizzativa, per poi passare a casi d'uso più complessi, autonomi e ambiziosi.

Non puoi rimanere fuori questa volta

Che siate un Chief AI Officer o un Chief Information Officer, potreste avere preoccupazioni iniziali diverse, ma il percorso da seguire è lo stesso. I guadagni di produttività derivanti dagli agenti di programmazione e dai sistemi di intelligenza artificiale autonomi sono troppo convincenti per essere ignorati. Se continuate ad adottare un approccio "wait and see", siete già indietro.

Questi strumenti non sono più solo sperimentali: stanno rapidamente diventando strumenti di successo. Aziende come Microsoft stanno generando un'enorme quantità di codice tramite l'intelligenza artificiale, migliorando di conseguenza la propria posizione competitiva. Strumenti come Claude Code stanno riducendo drasticamente i tempi di sviluppo e automatizzando flussi di lavoro complessi in numerose aziende in tutto il mondo. Le aziende che impareranno a sfruttare questi agenti in modo sicuro saranno più veloci nelle spedizioni, si adatteranno più rapidamente e supereranno in astuzia i propri concorrenti.

Ma la velocità senza sicurezza è una trappola. Integrare agenti autonomi nella propria azienda senza controlli adeguati è la ricetta per interruzioni, fughe di dati e contraccolpi normativi.

Questo è il momento di agire, ma in modo intelligente:

  • Programmi pilota di agenti di lancio, ma richiedono revisioni del codice, autorizzazioni per gli strumenti e sandbox.
  • Limitare l'autonomia a ciò che è necessario—non tutti gli agenti necessitano di accesso root o di memoria a lungo termine.
  • Controlla la memoria condivisa e le chiamate degli strumenti, soprattutto in sessioni di lunga durata o in contesti collaborativi.
  • Simulare attacchi utilizzando l'iniezione tempestiva e l'abuso dei comandi per scoprire rischi reali prima che lo facciano gli aggressori.
  • Forma i tuoi sviluppatori e i team di prodotto su modelli di utilizzo sicuri, tra cui controllo dell'ambito, comportamenti di fallback e percorsi di escalation.

Sicurezza e velocità non si escludono a vicenda, se si costruisce con intenzione.

Le aziende che tratteranno gli agenti di intelligenza artificiale come infrastrutture essenziali, non come giocattoli o giocattoli trasformati in minacce, saranno quelle che prospereranno. Le altre si ritroveranno a dover ripulire il disastro o, peggio ancora, a guardare dall'esterno.

L'era degli agenti è arrivata. Non limitarti a reagire. Preparati. Integra. Proteggi.

Steve Wilson è il Chief AI Officer presso Exabeam, dove guida lo sviluppo di soluzioni avanzate di sicurezza informatica basate sull'intelligenza artificiale per aziende globali. Esperto dirigente tecnologico, Wilson ha trascorso la sua carriera progettando piattaforme cloud su larga scala e sistemi sicuri per organizzazioni Global 2000. È ampiamente stimato nelle comunità dell'intelligenza artificiale e della sicurezza per aver unito una profonda competenza tecnica alle applicazioni aziendali nel mondo reale. Wilson è anche autore di Manuale dello sviluppatore per la sicurezza dei modelli linguistici di grandi dimensioni (O'Reilly Media), una guida pratica per proteggere i sistemi GenAI negli stack software moderni.