Sicurezza informatica
AI Federale e Militare degli Stati Uniti: nuova piattaforma offre convalida e accreditamento degli algoritmi

Una startup che vanta un consiglio consultivo composto da ex luminari del governo e militari ha rilasciato una nuova piattaforma progettata per valutare la sicurezza e la deployabilità delle applicazioni AI. I primi adottanti del sistema sono said to include la US Air Force e il Dipartimento della Sicurezza Interna.
La piattaforma si chiama VESPR, di CalypsoAI, fondata nel 2018, con sede a Silicon Valley, Dublino e un luogo ‘non divulgato’ in Virginia – terraferma per la CIA a Langley.
VESPR è un sistema di gestione del rischio dei modelli (MRM) progettato per facilitare un sistema di accreditamento conforme alle norme federali per gli algoritmi distribuiti. Offre sia un ambiente GUI di tipo dashboard facile da usare, sia un’interfaccia CLI per un utilizzo più avanzato.
VESPR si basa sugli standard di convalida, verifica e accreditamento del machine learning di CalypsoAI e presenta librerie di machine learning avversarie create a mano. Offre inoltre routine di test di stress automatizzate per potenziali algoritmi distribuibili.
Task Force per la Ricerca Nazionale su Risorse Artificiali Intelligenza
Il timing del rilascio potrebbe essere legato al lancio di ieri da parte dell’amministrazione Biden di una nuova Task Force per la Ricerca Nazionale su Risorse Artificiali Intelligenza, un organismo progettato per servire come comitato consultivo federale ai sensi del Congresso National AI Initiative Act del 2020.
La pressione sta aumentando sugli Stati Uniti e in tutto il mondo per standard regolatori significativi per i sistemi di machine learning, non meno in aree critiche come l’infrastruttura chiave e l’uso militare. Poiché i sistemi ML sono ancora in una fase formativa e stanno progredendo a un ritmo rapido, rappresentano una risorsa relativamente instabile e spesso controversa da cui è ora essenziale identificare algoritmi analitici replicabili e affidabili – se questo si rivela possibile.
In aprile CalypsoAI ha espresso il suo sostegno all’Endless Frontiers Act, un disegno di legge congressuale progettato per riformare il finanziamento della scienza di fronte alla crescente importanza della Cina come potenza AI, sebbene l’atto sia stato alla fine annacquato allo stadio del Senato.
Convalida per l’AI Federale
Secondo il comunicato stampa di VESPR, le aree coperte dalla piattaforma includono la visione computerizzata e l’elaborazione del linguaggio naturale (NLP).
CalypsoAI afferma che VESPR è stato creato ‘con contributi critici da clienti di sicurezza nazionale esistenti e nato da anni di ricerca indipendente sul machine learning avversario’.
Le immagini del sistema viste in un video promozionale (vedi fine dell’articolo) sembrano includere routine di rilevamento e/o simulazione per l’avvelenamento dei dati e l’iniezione di rumore, fornendo simulazioni per le azioni di potenziali attaccanti ai sistemi distribuiti.
Il sistema sembra utilizzare dati storici nazionali e stranieri. Le classi di destinazione incluse sono ‘Proteste’ e ‘Sommosse’, oltre alle meno chiare ‘Sviluppi strategici’. Gli incidenti di terrorismo nazionale sembrano essere inclusi nelle banche dati di riferimento del sistema, con ‘Violenza contro i civili’ un’altra classe di destinazione disponibile. Altre classi di destinazione disponibili includono ‘Battaglie’ e ‘Esplosioni/Violenza remota’.
Il sistema sembra consentire la protezione delle funzionalità in una sezione di configurazione ‘Gestione del bias’, apparentemente progettata per combattere il sovrapprendimento o per evitare l’eliminazione indesiderata di eventi outlier minori che potrebbero essere di interesse in una routine analitica. Nel video, VESPR sta elaborando dati tabulari storici su ‘Ucraina’.

Oltre a questo iniziale blitz promozionale, è probabile che non sentiremo più molto su questo prodotto SaaS orientato al governo; condivide il suo nome con una catena di bar di caffè, un’app di appuntamenti sociali e un album di streaming, e viene inesorabilmente battuto indietro nei risultati classificati dal modello di chimica VSEPR.
CalypsoAI ha ricevuto 13 milioni di dollari in finanziamenti di serie A da Paladin Capital Venture Group nel luglio 2020. Altri investitori hanno incluso 8VC, Lockheed Martin Ventures, Manta Ray Ventures, Frontline Ventures, Lightspeed Venture Partners e Pallas Ventures.
In un post del blog sul sito della società, il fondatore di CalypsoAI, Neil Serebryany, che ha svolto un lavoro di ricerca non specificato presso il Dipartimento della Difesa nel 2018, afferma che la società è stata fondata come possibile soluzione alla paura dei governi di distribuire sistemi algoritmici avanzati in un clima non regolamentato:
‘Il motivo principale di questa paura dei progetti AI, che porta a essere abbandonati all’interno del governo, sembra prosaico, ma è in realtà abbastanza complesso. Sono stati abbandonati a causa della mancanza di garanzia di qualità […] I modelli AI non possono essere valutati allo stesso modo dei modelli di software tradizionali. Ciò è dovuto alla natura sottostante della struttura del modello e ai modi altamente complessi in cui possono fallire. Mancando di un meccanismo per valutare questi sistemi non deterministici in modo deterministico e verificabile, le organizzazioni all’interno del governo non sono state in grado di valutare la cosiddetta ‘qualità’ dei modelli AI rispetto a un benchmark. Ciò ha portato alla paura che potessero fallire, potessero malfunzionare o potessero essere violati da un avversario nel momento in cui sono più necessari, ad esempio in combattimento, in volo o durante una procedura medica complessa. ‘
Consiglio Consultivo
Un mese prima del round di investimenti, la società ha creato un Consiglio Consultivo per la Sicurezza Nazionale che include Tony DeMartino, un ex aiutante del Segretario alla Difesa Jim Mattis, e ora un socio fondatore della società di consulenza strategica Pallas Advisors; l’ex Vice Segretario alla Difesa per l’Intelligence (sotto il Presidente Trump) Kari Bingen; l’ex Associate Deputy Director per l’Innovazione Digitale della CIA Sean Roche, un ex specialista di intelligence cibernetica in quell’organizzazione; e Michael Molino, ex Vice Presidente Esecutivo per lo sviluppo aziendale di ASRC Federal, che fornisce capacità di consulenza, ricerca e migrazione tecnica in una gamma di servizi federali critici.
Secondo il comunicato stampa:
‘VESPR fornisce capacità di test avanzate per l’AI con un flusso di lavoro semplificato per garantire che ogni algoritmo di machine learning messo in produzione sia stato verificato come sicuro. VESPR fornisce sicurezza e garanzia senza precedenti per una varietà di sistemi AI, dalla visione computerizzata all’elaborazione del linguaggio naturale. Il processo VESPR garantisce test, valutazione, verifica e convalida (TEVV) in tutto il ciclo di vita del machine learning sicuro (SMLC), dalla fase di ricerca e sviluppo alla distribuzione del modello. Il risultato finale sono sistemi AI che forniscono monitoraggio e reporting precisi e completi sulle capacità, vulnerabilità e prestazioni del modello.’
Aggiornato alle 11:07 EST per riflettere che Michael Molino non lavora più per ASRC Federal, un errore nell’articolo originale.
Aggiornato il 1 gennaio 2024 per rimuovere il video YouTube rotto.















