Seguici sui social

Il team di ricerca mira a creare un'intelligenza artificiale spiegabile per la non proliferazione nucleare e la sicurezza nucleare

Intelligenza Artificiale

Il team di ricerca mira a creare un'intelligenza artificiale spiegabile per la non proliferazione nucleare e la sicurezza nucleare

mm

I ricercatori del Pacific Northwest National Laboratory (PNNL) stanno tentando di rendere l'IA spiegabile ai fini della non proliferazione nucleare e della sicurezza nazionale. L'obiettivo è rendere trasparenti le decisioni restituite dai modelli di IA per qualsiasi decisione che coinvolga la sicurezza nucleare.

Viene prestata più attenzione che mai all’importanza di modelli di intelligenza artificiale spiegabili, nel tentativo di risolvere il problema della “scatola nera” dell’apprendimento automatico. Spesso si ritiene che i modelli di intelligenza artificiale prendano decisioni complesse anche quando i responsabili dell’esecuzione di tali decisioni non comprendono la logica alla base di tali decisioni. Maggiore è il rischio di catastrofe e pericolo in cui vengono prese tali decisioni, più importante è che la logica alla base di tali decisioni sia trasparente.

Potrebbe non essere necessario comprendere il ragionamento alla base delle classificazioni se un'applicazione AI sta facendo qualcosa di semplice come categorizzare immagini di frutta, ma per i casi che coinvolgono armi nucleari o produzione di materiale nucleare, è meglio aprire la scatola nera alla base dell'IA impiegata in questi scenari.

Gli scienziati del PNNL stanno lavorando per rendere l'intelligenza artificiale spiegabile utilizzando una varietà di nuove tecniche. Questi ricercatori stanno lavorando a fianco dell'Office of Defense Nuclear Nonproliferation Research and Development (DNN R&D) del Department of Energy della National Nuclear Security Administration (NNSA). Il DNN R&D è responsabile della supervisione della capacità degli Stati Uniti di monitorare e rilevare la produzione di materiale nucleare, lo sviluppo di armi nucleari e la detonazione di armi nucleari in tutto il mondo.

Dato quanto sono alti i rischi quando si tratta di questioni relative alla non proliferazione nucleare, è fondamentale sapere in che modo un sistema di intelligenza artificiale giunge alle sue conclusioni su questi problemi. Angie Sheffield è senior program manager presso DNN R&D. Secondo Sheffield spesso può essere difficile incorporare nuove tecnologie come i modelli di intelligenza artificiale nelle tecniche e nei quadri scientifici tradizionali, ma il processo di incorporazione dell'IA in questi sistemi può essere facilitato progettando nuovi modi di interagire in modo più efficace con questi sistemi. Sheffield sostiene che i ricercatori dovrebbero creare strumenti che consentano agli sviluppatori di comprendere come funzionano queste sofisticate tecniche.

La relativa scarsità di dati relativi alle esplosioni nucleari e allo sviluppo di armi nucleari significa che l'intelligenza artificiale spiegabile è ancora più importante. L'addestramento dei modelli di intelligenza artificiale in questo spazio si traduce in modelli che potrebbero essere meno affidabili grazie alla quantità relativamente piccola di dati rispetto a un'attività come il riconoscimento facciale. Di conseguenza, ogni fase del processo utilizzato dal modello per prendere una decisione deve essere ispezionabile.

Mark Greaves, un ricercatore del PNNL, ha spiegato che i rischi inerenti alla proliferazione nucleare impongono un sistema in grado di informare le persone sul motivo per cui è stata selezionata una determinata risposta.

Come ha spiegato Greaves tramite EurekaAlert:

"Se un sistema di intelligenza artificiale fornisce una probabilità errata sul possesso di un'arma nucleare da parte di una nazione, il problema è di tutt'altra portata. Quindi il nostro sistema deve almeno fornire spiegazioni affinché gli esseri umani possano verificarne le conclusioni e utilizzare la propria competenza per correggere le lacune nell'addestramento dell'intelligenza artificiale causate dalla scarsità di dati".

Come spiegato da Sheffield, PNNL ha due punti di forza che li aiuteranno a risolvere questo problema. Innanzitutto, PNNL ha una notevole esperienza nel campo dell'IA. Inoltre, il team ha una significativa conoscenza del dominio quando si tratta di materiali e armi nucleari. Il team del PNNL comprende problemi come il trattamento del plutonio ei tipi di segnali unici per lo sviluppo di armi nucleari. La combinazione di esperienza di intelligenza artificiale, esperienza di sicurezza nazionale e conoscenza del dominio nucleare significa che PNNL è particolarmente adatto a gestire questioni di sicurezza nazionale nucleare e intelligenza artificiale.

Blogger e programmatore con specialità in machine Learning e Deep Learning temi. Daniel spera di aiutare gli altri a usare il potere dell'intelligenza artificiale per il bene sociale.