Finanziamento
Il fondo OpenAI estende gli investimenti nella sicurezza adattiva, portando la serie A a 55 milioni di dollari

Sicurezza adattiva, l'azienda di sicurezza informatica basata sull'intelligenza artificiale, pioniera nelle difese contro l'ingegneria sociale e gli attacchi di impersonificazione, ha annunciato oggi un investimento successivo da parte di Fondo di avvio OpenAILa mossa porta il round di Serie A della società a un totale di $55 milioni e consolida Adaptive come l'unico investimento del Fondo in materia di sicurezza informatica, un chiaro segnale di fiducia nel suo approccio incentrato sull'uomo per difendersi dalle minacce più urgenti dell'IA.
L'ondata crescente di inganni alimentati dall'intelligenza artificiale
Il mondo digitale sta cambiando rapidamente. I sistemi di intelligenza artificiale, un tempo confinati nei laboratori, sono ora perfettamente integrati nel modo in cui le persone fanno acquisti, lavorano, scrivono e comunicano. Tuttavia, mentre questi strumenti diventano "infrastrutture invisibili", stanno anche alimentando una nuova classe di minacce.
Nel giugno 2025, i funzionari statunitensi, tra cui i ministri degli esteri e un membro in carica del Congresso, ha ricevuto messaggi generati dall'intelligenza artificiale che impersonavano il Segretario di Stato Marco Rubio attraverso app crittografate, secondo un avviso del Dipartimento di Stato. Nello stesso mese, il CEO di OpenAI, Sam Altman, ha dichiarato al pubblico della Federal Reserve che la sostituzione dell'identità con un'IA potrebbe innescare una "crisi di frode" in arrivo "molto, molto presto".
Per i consumatori, le minacce non sono meno immediate. il video deepfake su X prometteva falsamente un programma di ricompensa da 100 milioni di XRP, portando il CTO di Ripple ad avvertire pubblicamente gli investitori. L'FBI ha poi rivelato che i soli residenti del Michigan hanno perso più di 240 milioni di dollari nel 2024 alla clonazione vocale tramite intelligenza artificiale e ai falsi schemi video.
Il filo conduttore è chiaro: gli attacchi che un tempo erano altamente tecnici ora sono estremamente personali, erodendo la fiducia a ogni livello della società.
La visione di Adaptive Security
"La sicurezza informatica ora inizia dalle persone, non solo dalle infrastrutture", disse Brian Long, co-fondatore e CEO di Adaptive Security. "Se non miglioriamo il modo in cui formiamo e proteggiamo le persone, rischiamo di entrare in un mondo in cui la fiducia stessa diventa la nostra più grande vulnerabilità".
Adaptive è stata fondata proprio con questa visione in mente: le persone sono il nuovo perimetro. La piattaforma dell'azienda è progettata per preparare individui e organizzazioni all'ondata di impersonificazione basata sull'intelligenza artificiale, combinando simulazione, addestramento e difesa in tempo reale in un unico sistema adattivo.
La soluzione comprende:
-
Simulazioni di attacchi Deepfake attraverso voce, video e messaggistica per misurare la resilienza contro le imitazioni più convincenti.
-
Formazione sulla consapevolezza dinamica che si adatta al profilo di rischio di ciascun utente, garantendo che gli insegnamenti siano efficaci e rimangano impressi.
-
Strumenti di triage e reporting immediati che accelerano il contenimento dei tentativi di impersonificazione prima che si diffondano.
-
Punteggio del rischio basato sull'intelligenza artificiale per aiutare i team di sicurezza a concentrarsi sulle vulnerabilità con la massima priorità.
Questo approccio non solo forma i dipendenti, ma ricondiziona anche le istituzioni affinché pensino in modo diverso al modo in cui si sviluppano le frodi nell'era dell'intelligenza artificiale.
Perché gli investitori stanno prestando attenzione
Il continuo supporto dell'OpenAI Startup Fund sottolinea quanto questa sfida sia diventata urgente. "Adaptive si sta muovendo con incredibile rapidità per sviluppare difese basate sull'intelligenza artificiale per minacce altrettanto avanzate", ha affermato. Ian Hathaway, partner presso la startup OpenAI Fondo. "La loro piattaforma offre esattamente ciò di cui i team di sicurezza moderni hanno bisogno: simulazioni deepfake realistiche, valutazione del rischio basata sull'intelligenza artificiale e formazione efficace. Siamo orgogliosi di sostenere un team che sta rimodellando il modo in cui le istituzioni rimangono resilienti nell'era dell'intelligenza artificiale."
Per OpenAI, l'investimento è anche in linea con la più ampia consapevolezza dei pericoli che l'intelligenza artificiale generativa può rappresentare in mani malintenzionate. Il recente allarme di Altman sul collasso dei metodi di autenticazione vocale evidenzia la rapidità con cui le misure di sicurezza tradizionali stanno diventando obsolete. "L'intelligenza artificiale ha completamente sconfitto la maggior parte dei metodi di autenticazione attualmente utilizzati dalle persone, ad eccezione delle password", ha ammonito a luglio.
La strada da percorrere: implicazioni per il futuro
Le implicazioni dell'approccio di Adaptive vanno oltre ogni singola azienda o traguardo finanziario. Con il continuo progresso dell'intelligenza artificiale generativa, l'equilibrio tra inganno e rilevamento modellerà non solo il settore della sicurezza, ma anche il funzionamento delle società in un mondo di autenticità offuscata.
Se non ci si può più fidare di voce, video e testo, le istituzioni saranno costrette a ripensare la verifica a ogni livello. Le banche potrebbero dover abbandonare le impronte vocali biometriche, i tribunali potrebbero aver bisogno di nuovi standard per le prove digitali e i datori di lavoro potrebbero aver bisogno di garanzie costanti contro i candidati falsificati. I meccanismi stessi della fiducia – come sappiamo chi sta parlando, con chi stiamo effettuando una transazione o se un messaggio è autentico – vengono riscritti in tempo reale.
Il modello di Adaptive punta verso un possibile futuro: un mondo in cui addestramento, simulazione e difesa adattiva diventeranno di routine come lo erano un tempo le scansioni antivirus. Un giorno, i dipendenti potrebbero dover affrontare esercitazioni deepfake con la stessa frequenza delle esercitazioni antincendio, e le organizzazioni potrebbero affidarsi a punteggi di rischio basati sull'intelligenza artificiale per prendere decisioni quotidiane su comunicazione e accesso.
In questo senso, la tecnologia segnala un cambiamento culturale nella sicurezza informatica. La protezione non consiste più solo nel mantenere sicure le reti, ma anche nel rafforzare il giudizio umano su larga scala, assicurando che anche in un'epoca di falsificazioni perfette, le persone mantengano la capacità di riconoscere ciò che è reale.












