Leader del pensiero
Come i criminali stanno vincendo la corsa agli armamenti dell'intelligenza artificiale prima ancora che le aziende nascano

In un'epoca in cui l'intelligenza artificiale sta trasformando i settori industriali a un ritmo senza precedenti, il lato oscuro di questa rivoluzione tecnologica è altrettanto allarmante. Mentre le aziende si affrettano a sfruttare il potenziale dell'intelligenza artificiale, i criminali informatici sfruttano questi progressi, modificando le dinamiche della criminalità informatica e delle frodi.
Cambiare l'economia della criminalità informatica e delle frodi
I criminali informatici utilizzano gli stessi modelli e tecnologie di intelligenza artificiale impiegati dalle aziende, spesso adattandoli entro pochi giorni dal loro rilascio. Uno dei primi esempi di tali uso improprio è stata l'automazione della risoluzione dei CAPTCHA tramite ChatGPT‑1, che ha dimostrato quanto velocemente i modelli generativi possano aggirare i controlli di sicurezza di base.
Da allora, ogni importante progresso nell'intelligenza artificiale generativa è stato rapidamente rispecchiato da adattamenti criminali, tra cui la generazione di deepfake vocali e video che appaiono quasi immediatamente sulle piattaforme darknet. Questo ciclo accelerato consente truffatori per sfruttare tecnologie sofisticate per creare truffe convincenti, minando le tradizionali misure di sicurezza.
Solo nel primo trimestre del 2025, si ritiene che le frodi basate su deepfake abbiano causato più di 200 milioni di dollari di perdite finanziarieLa redditività della criminalità informatica è aumentata vertiginosamente, con piattaforme che offrono "frode come servizio" rendendo più facile che mai per i criminali eseguire schemi complessi, tra cui identità sintetiche e kit di phishing avanzati.
Mentre le aziende faticano a espandere le capacità dell'intelligenza artificiale, i criminali continuano a correre avanti, innovando continuamente e sfruttando le lacune lasciate da framework di sicurezza obsoleti.
Perché i framework legacy di sicurezza informatica e fiducia falliscono contro gli attori basati sull'intelligenza artificiale
Le tradizionali misure di sicurezza informatica, che un tempo fornivano una parvenza di protezione, si stanno rivelando inadeguate. I sistemi legacy, basati su blacklist, CAPTCHA e autenticazione a fattore singolo, sono mal equipaggiati per contrastare il panorama in continua evoluzione degli attacchi basati sull'intelligenza artificiale. I criminali utilizzano deepfake in grado di ingannare gli scanner biometrici e identità sintetiche che aggirano facilmente i protocolli KYC.
Questo fallimento è aggravato dal fatto che molte organizzazioni continuano a considerare la sicurezza informatica come un centro di costo piuttosto che una componente infrastrutturale critica. Mentre il Pentagono investe milioni per assumere hacker che sfruttano l'intelligenza artificiale, il divario tecnologico diventa evidente. Mentre le aziende sono impantanate nel teatro della conformità, i criminali sfruttano l'intelligenza artificiale per sfruttare le vulnerabilità umane, come gli attacchi di spear-phishing che imitano le comunicazioni dei dirigenti.
Come si presentano in pratica gli attacchi “nativi dell’IA”
Le moderne tattiche fraudolente si sono evolute ben oltre i vecchi schemi di phishing. Gli aggressori costruiscono elaborate catene di frode che appaiono legittime a ogni passo.
Immaginate una mattina aziendale familiare. Martedì, ore 9:43. Un CFO riceve un'e-mail contrassegnata come "urgente", che sembra provenire dall'amministratore delegato. Il tono è familiare. Il linguaggio corrisponde alle richieste precedenti. Un messaggio di follow-up arriva pochi minuti dopo su un canale diverso, rafforzando l'urgenza. Alle 11:00, un bonifico multimilionario viene approvato, ma in seguito si scopre che è stato indirizzato a un conto offshore controllato da aggressori.
Questi attacchi basati sull'intelligenza artificiale sono manipolazioni psicologiche che sfruttano la fiducia e l'autorità. La sofisticatezza di tali operazioni evidenzia una lacuna nelle misure di sicurezza esistenti, che non riescono a rilevare le complesse anomalie comportamentali che caratterizzano le frodi moderne.
Quali sono le priorità realistiche che le aziende dovrebbero dare prima di implementare più intelligenza artificiale internamente
Prima di implementare ulteriormente l'intelligenza artificiale internamente, le aziende devono fermarsi e rivalutare i propri presupposti sulla fiducia. L'accelerazione della criminalità basata sull'intelligenza artificiale ha messo in luce una debolezza strutturale: le organizzazioni si stanno ancora difendendo dalle minacce di ieri, mentre gli attacchi di oggi sono progettati per apparire legittimi di default.
1. Le aziende devono riconsiderare il modo in cui viene definito il rischio stesso.
Le matrici di rischio tradizionali erano costruite attorno a guasti come interruzioni di sistema, fughe di dati e violazioni delle policy. Nell'era dell'intelligenza artificiale, il rischio deriva sempre più dalla simulazione piuttosto che da malfunzionamenti. Invece di chiedersi "cosa potrebbe andare storto", è più appropriato chiedersi "cosa può essere convincentemente falsificato, su larga scala, più velocemente di quanto possiamo reagire."
Le identità sintetiche, l'impersonificazione di dirigenti e le narrative generate dall'intelligenza artificiale si comportano in modo diverso dalle minacce tradizionali: si diffondono più rapidamente, si integrano in attività legittime e sfruttano la fiducia piuttosto che le lacune tecniche. Non sorprende che questi rischi tendano a essere più rilevanti e a materializzarsi più spesso rispetto ai loro predecessori non basati sull'intelligenza artificiale, nascondendosi in cybersecurity, frodi, rischi reputazionali o conformità.
2. Le organizzazioni devono accettare che la sola prevenzione non è più sufficiente.
Le principali aziende ora mappano i rischi dell'IA su tre livelli difensivi, che corrispondono a Difensore dell'IA architettura modulare:
- Prevenzione dei rischi – che ora include l'anticipazione degli attacchi che sfruttano la fiducia umana e i contenuti generati dall'intelligenza artificiale, non solo il blocco delle minacce note.
- Verifica dell'identità basata sull'intelligenza artificiale
- Integrità del dispositivo e della sessione
- Protezione della comunicazione esecutiva
- Rilevamento e monitoraggio delle minacce combina l'analisi delle anomalie tecniche con il monitoraggio comportamentale e dei media, riflettendo il fatto che molti attacchi nativi dell'IA si manifestano nei modelli di comunicazione piuttosto che nel codice.
- Monitoraggio continuo di segnali e anomalie
- Rilevamento AI vs AI
- Monitoraggio narrativo e mediatico
- Indagine e attribuzione – concentrandosi sulla ricostruzione degli eventi, sull’attribuzione dell’intento e sulla produzione di prove fruibili, consentendo alle organizzazioni di rispondere in modo efficace anche quando l’inganno si diffonde più rapidamente delle loro difese iniziali.
- Spiegabilità degli avvisi di intelligenza artificiale
- Attribuzione di attività sospette
- OSINT di livello probatorio
3. Le aziende devono affrontare la dimensione umana delle frodi basate sull'intelligenza artificiale.
I dipendenti rimangono il principale punto di accesso per gli attacchi moderni, ma la natura dello sfruttamento è cambiata. Un modello comune, sempre più osservato nelle frodi basate sull'intelligenza artificiale, prevede interazioni interne piuttosto che attacchi esterni. I dipendenti potrebbero ricevere brevi videochiamate da quello che sembra essere il reparto Risorse Umane, che chiede di "verificare rapidamente l'identità" per risolvere un problema relativo alle buste paga. Il volto, la voce e il branding sembrano autentici. La richiesta in sé sembra innocua, ma consente silenziosamente l'appropriazione indebita dell'account più tardi quello stesso giorno.
Questo tipo di scenario illustra perché le frodi basate sull'intelligenza artificiale sfruttano il contesto, l'autorità e la tempistica, spesso imitando la comunicazione esecutiva con una precisione inquietante. In questo contesto, la formazione tradizionale sulla sicurezza rischia di trasformarsi in poco più di un teatrino della conformità, offrendo rassicurazioni senza una reale resilienza.
La sfida non risiede solo nella consapevolezza, ma anche nel modo in cui il problema viene inquadrato.
Riformulare il problema (questo è il passaggio zero)
Vecchio modello mentale: "Addestrare i dipendenti a non commettere errori".
Nuovo modello mentale: "Presumi che i dipendenti saranno presi di mira, manipolati e trasformati in armi".
La formazione non è istruzione.
L'allenamento è inoculazione + memoria muscolare.
Da questo punto di vista, quali team devono essere formati per riconoscere i modelli di frode ricorrenti?
I 5 vettori dominanti di frode dell'IA che passano attraverso dipendenti – nessuno di questi viene fermato dai poster di sensibilizzazione:
| Vettoriale (Vector) | Come appare nella realtà |
| Spoofing dell'autorità | Nota vocale CEO/CFO, WhatsApp, Zoom deepfake |
| Trappole dell'urgenza | “5 minuti”, “riservato”, “a livello di consiglio” |
| dirottamento del contesto | Il truffatore conosce i veri progetti, i nomi, i tempi |
| Abuso di processo | "Basta saltare questa volta", "normale più tardi" |
| Abuso di fiducia negli strumenti | "L'IA ha detto che va bene", "il sistema è già stato approvato" |
4. Le organizzazioni devono riconsiderare il significato di “identità” in un mondo di realtà sintetica.
Poiché voci e video deepfake minano l'affidabilità biometrica, nessun singolo fattore può dimostrarne l'autenticità in modo affidabile. Sempre più spesso, la resilienza deriva dall'accumulo di numerosi segnali deboli nel tempo, come contesto, continuità e coerenza tra dispositivi, sessioni e punti dati esterni.
I dati aperti ed esterni, a lungo considerati secondari, stanno acquisendo un'importanza strategica. Se combinati con segnali comportamentali interni, aiutano a rispondere a una domanda cruciale: questa identità o azione ha senso in tutti i contesti? In un mondo in cui quasi tutto può essere inventato, la coerenza diventa una delle poche ancore di fiducia rimaste.










