Sicurezza informatica
Le aziende sono pronte per la prossima ondata di attacchi informatici potenziati dall’intelligenza artificiale?
Analizzare le tendenze attuali consente agli esperti di prevedere come i cybercriminali utilizzeranno l’intelligenza artificiale nel futuro. Con queste informazioni, possono identificare le più grandi minacce emergenti e determinare se le aziende sono preparate. Potrebbero anche essere in grado di individuare una soluzione.
Lo stato delle minacce AI negli ultimi anni
Sebbene la tecnologia AI sia relativamente nuova, è già diventata uno strumento importante per gli hacker. Queste tendenze suggeriscono che gli attacchi informatici AI sono in aumento.
1. Manipolazione del modello
Facendo bersaglio dei grandi modelli linguistici (LLM) direttamente, gli attaccanti possono manipolare il comportamento del modello, diminuire la precisione dell’output o esporre dati personali di formazione. L’avvelenamento dei dati e la progettazione delle promozioni sono tecniche di attacco comuni.
Alcuni attacchi sono guidati da attaccanti che cercano di causare il caos o rubare informazioni sensibili. Altri sono amministrati da artisti scontenti che vogliono proteggere le loro opere d’arte dallo scraping AI. In ogni caso, l’azienda e i suoi utenti finali sono colpiti negativamente.
2. Attacchi di impersonazione
Nel 2024, un dirigente della Ferrari ha ricevuto diversi messaggi WhatsApp dal CEO, Benedetto Vigna. Vigna ha parlato di un’imminente acquisizione e ha sollecitato il dipendente a firmare un accordo di non divulgazione. Ha anche chiamato per discutere del finanziamento. C’era un problema — non era lui.
Il deepfake era quasi perfetto, imitando eccezionalmente bene l’accento meridionale italiano di Vigna. Tuttavia, lievi incoerenze nella voce hanno fatto capire all’esecutivo che si trattava di una truffa. Il dipendente ha chiesto il titolo di un libro che Vigna aveva consigliato giorni prima, una domanda alla quale solo il vero CEO avrebbe potuto rispondere. Lo scammers ha riattaccato subito.
L’AI può clonare la voce di una persona, il comportamento di navigazione, lo stile di scrittura e la somiglianza. Man mano che questa tecnologia si evolve, diventa sempre più difficile identificare i deepfake. Gli scammers spesso mettono il bersaglio in una situazione di urgenza per evitare che mettano in discussione le piccole discordanze.
3. Phishing AI
In passato, una persona poteva identificare un’e-mail di phishing cercando errori di grammatica, collegamenti sospetti, saluti generici e richieste fuori posto. Ora, con la tecnologia di elaborazione del linguaggio naturale, gli hacker possono creare messaggi credibili con una grammatica impeccabile.
I ricercatori hanno scoperto che le e-mail di phishing con lancia automatica abilitate dall’AI hanno un tasso di clic del 54%, che è paragonabile a quello delle e-mail di phishing scritte da esseri umani. Poiché queste truffe sono più convincenti, stanno diventando sempre più comuni. Gli studi hanno scoperto che oltre l’80% delle e-mail di phishing mostra prove di coinvolgimento dell’AI.
4. Ingegneria sociale
L’ingegneria sociale comporta la manipolazione di qualcuno per indurlo a compiere un’azione o divulgare informazioni. L’AI consente agli hacker di rispondere più velocemente e creare messaggi più convincenti. Qualsiasi modello di elaborazione del linguaggio naturale può condurre un’analisi semantica per identificare lo stato emotivo del destinatario, rendendolo più propenso a cedere.
In aggiunta all’incremento delle tecniche di ingegneria sociale, la tecnologia di apprendimento automatico abbassa le barriere di ingresso tradizionali, consentendo ai novizi di condurre campagne sofisticate. Se chiunque può diventare un cybercriminale, chiunque può diventare un bersaglio.
La prossima ondata di attacchi AI basati sui dati
All’inizio del 2026, gli attacchi AI sono previsti rimanere a un livello di maturità basso. Tuttavia, si evolveranno esponenzialmente nel corso dell’anno, consentendo ai cybercriminali di entrare nelle fasi di ottimizzazione, distribuzione e scalabilità. Saranno presto in grado di lanciare campagne completamente automatizzate. Gli esempi confermati di attacchi informatici AI non saranno rari per molto tempo.
Il malware polimorfo è un virus abilitato dall’AI che può cambiare il proprio codice ogni volta che si replica per evitare la rilevazione. Gli attaccanti possono consegnare il payload attraverso ecosistemi AI, chiamare LLM al momento dell’esecuzione per generare comandi o incorporare direttamente il virus nel LLM. Il Google Threat Intelligence Group ha scoperto che gli avversari hanno distribuito questo malware per la prima volta nel 2025.
Le famiglie di malware sono PROMPTFLUX e PROMPTSTEAL. Durante l’esecuzione, utilizzano LLM per richiedere tecniche di offuscamento e evasione VBScript. evitano la rilevazione basata su firma offuscando il proprio codice su richiesta.
Le prove suggeriscono che queste minacce sono ancora nella fase di test — alcune funzionalità incomplete sono commentate e le chiamate di programmazione dell’applicazione sono limitate. Queste famiglie di malware AI potrebbero ancora essere in fase di sviluppo, ma la loro stessa esistenza rappresenta un enorme passo avanti nella direzione di tecniche di attacco autonome e adattive.
La ricerca di NYU Tandon mostra che i LLM possono già eseguire autonomamente attacchi di ransomware, denominati Ransomware 3.0. Possono condurre ricognizioni, generare payload e personalizzare estorsioni senza intervento umano. richiede solo prompt di linguaggio naturale incorporati nel binario. Il modello produce varianti polimorfe che si adattano all’ambiente di esecuzione generando dinamicamente il codice maligno al momento dell’esecuzione.
Le aziende sono pronte per gli attacchi AI?
Nonostante i miliardi spesi in sicurezza informatica, le aziende private continuano a lottare per stare al passo con l’evoluzione del panorama delle minacce. La tecnologia di apprendimento automatico potrebbe rendere obsolete le attuali tecnologie di rilevamento e risposta, complicando ulteriormente la difesa. Non aiuta il fatto che molte aziende non riescono a soddisfare gli standard di sicurezza di base.
Il rapporto sulla maturità della sicurezza informatica DIB del 2024 ha intervistato 400 professionisti dell’informatica negli Stati Uniti della base industriale della difesa (DIB). Oltre la metà dei rispondenti ha riferito di essere lontani anni dalla certificazione di maturità della sicurezza informatica (CMMC) 2.0, nonostante la equivalente conformità NIST 800-171 sia stata delineata nei contratti del Dipartimento della Difesa (DoD) dal 2016. Molti valutano la loro postura di sicurezza come molto migliore di quanto non sia in realtà.
I nuovi requisiti CMMC sono entrati in vigore il 10 novembre, 2025. In futuro, tutti i contratti DoD richiederanno un certo livello di conformità CMMC come condizione di aggiudicazione del contratto. Le nuove regole sono intese a rafforzare la sicurezza informatica della DIB, ma saranno efficaci nell’era dell’AI?
Il defensive AI è la risposta?
Combattere il fuoco con il fuoco potrebbe essere l’unico modo per contrastare l’inevitabile ondata di attacchi AI. Con il defensive AI, le organizzazioni possono rispondere dinamicamente alle minacce in tempo reale. Tuttavia, questo approccio presenta le sue stesse falle di sicurezza — assicurare il modello contro la manipolazione richiederà una supervisione e un’auditing continui.
Secondo Harvard Business Review, le soluzioni convenzionali lasciano le aziende vulnerabili agli attacchi informatici AI. Per raggiungere la resilienza informatica, devono utilizzare la tecnologia di apprendimento automatico per anticipare e rispondere automaticamente alle minacce.
Non c’è una risposta semplice alla domanda se il defensive AI sia la soluzione a questo problema. Le aziende dovrebbero investire le loro risorse nel dispiegamento di strumenti di apprendimento automatico non testati o nell’espansione dei loro team di tecnologia dell’informazione? È impossibile prevedere quale investimento si ripagherà nel lungo termine.
Le grandi aziende potrebbero vedere ritorni significativi con la sicurezza informatica automatizzata, mentre le piccole aziende potrebbero lottare per giustificare il costo. La tecnologia di automazione convenzionale potrebbe essere in grado di colmare il divario a un prezzo molto più basso, ma non sarà in grado di rispondere a minacce dinamiche.
Steve Durbin, CEO di Information Security Forum, afferma che l’adozione dell’AI ha benefici significativi, ma anche svantaggi importanti. Ad esempio, le aziende spesso sperimentano un aumento di avvisi di falsi positivi, che spreca il tempo dei team di sicurezza. Inoltre, l’eccessiva dipendenza dall’AI può portare i team a diventare troppo fiduciosi, provocando lacune nella sicurezza.
Navigare nel panorama delle minacce AI
È impossibile determinare l’esatta portata della presenza dell’AI nel panorama delle minacce, poiché gli attaccanti possono utilizzarla per creare codice maligno o stendere e-mail di phishing, piuttosto che utilizzarla al momento dell’esecuzione. I cybercriminali solitari e i gruppi di minacce sponsorizzati dallo Stato potrebbero utilizzarla su larga scala.
Sulla base delle informazioni disponibili, la manipolazione del modello, il phishing AI e il malware polimorfo saranno le più grandi minacce informatiche del 2026. I cybercriminali continueranno probabilmente a utilizzare i LLM per generare, consegnare e adattare payload maligni, prendendo di mira industrie ad alto valore come la finanza, nonché persone comuni.












