Inteligență artificială
Echipa de cercetare își propune să creeze inteligență artificială explicabilă pentru neproliferare nucleară și securitate nucleară

Cercetătorii de la Pacific Northwest National Laboratory (PNNL) încearcă să facă inteligența artificială explicabilă pentru scopurile neproliferării nucleare și securității naționale. Obiectivul este de a face deciziile returnate de modelele de inteligență artificială transparente pentru orice decizie care implică securitatea nucleară.
Mai multă atenție decât oricând este acordată importanței modelelor de inteligență artificială explicabile, într-o încercare de a rezolva problema “cutiei negre” a învățării automate. Modelele de inteligență artificială sunt adesea considerate de încredere pentru a lua decizii complexe, chiar și atunci când cei responsabili pentru executarea acestor decizii nu înțeleg rațiunea din spatele acestor decizii. Cu cât deciziile sunt luate în situații cu potențial catastrofic și periculos, cu atât este mai important ca rațiunea din spatele acestor decizii să fie transparentă.
Nu poate fi necesar să se înțeleagă rațiunea din spatele clasificărilor dacă o aplicație de inteligență artificială face ceva atât de simplu ca clasificarea imaginilor de fructe, dar în cazurile care implică arme nucleare sau producția de material nuclear, este mai bine să se deschidă cutia neagră care stă la baza inteligenței artificiale utilizate în aceste scenarii.
Oamenii de știință de la PNNL lucrează la crearea de inteligență artificială explicabilă utilizând o varietate de tehnici noi. Cercetătorii lucrează alături de Administrația Națională de Securitate Nucleară (NNSA) a Departamentului de Energie, Biroul de Cercetare și Dezvoltare pentru Neproliferare Nucleară (DNN R&D). DNN R&D este responsabilă pentru supravegherea capacității Statelor Unite de a monitoriza și detecta producția de material nuclear, dezvoltarea armelor nucleare și detonarea armelor nucleare în întreaga lume.
Având în vedere riscurile foarte mari care există în cazul problemelor legate de neproliferarea nucleară, este critic să se știe cum ajunge un sistem de inteligență artificială la concluziile sale despre aceste probleme. Angie Sheffield este manager de program senior la DNN R&D. Conform lui Sheffield, adesea poate fi dificil să se incorporeze tehnologii noi, cum ar fi modelele de inteligență artificială, în tehnici și cadre științifice tradiționale, dar procesul de incorporare a inteligenței artificiale în aceste sisteme poate fi facilitat prin crearea de noi modalități de interacțiune mai eficientă cu aceste sisteme. Sheffield susține că cercetătorii ar trebui să creeze instrumente care să permită dezvoltatorilor să înțeleagă cum funcționează aceste tehnici sofisticate.
Lipsa relativă de date care implică explozii nucleare și dezvoltarea armelor nucleare face ca inteligența artificială explicabilă să fie și mai importantă. Antrenarea modelelor de inteligență artificială în acest spațiu duce la modele care pot fi mai puțin fiabile datorită lipsei relative de date în comparație cu o sarcină precum recunoașterea feței. Ca urmare, fiecare etapă a procesului utilizat de model pentru a lua o decizie trebuie să fie inspectabilă.
Mark Greaves, cercetător la PNNL, a explicat că riscurile inerente neproliferării nucleare impun un sistem care să poată informa oamenii despre de ce a fost selectat un anumit răspuns.
Așa cum a explicat Greaves prin EurekaAlert:
“Dacă un sistem de inteligență artificială oferă o probabilitate greșită cu privire la faptul că o națiune posedă o armă nucleară, aceasta este o problemă de o scară cu totul diferită. Prin urmare, sistemul nostru trebuie să producă cel puțin explicații astfel încât oamenii să poată verifica concluziile sale și să utilizeze propria expertiză pentru a corecta lacunele de antrenament ale inteligenței artificiale cauzate de lipsa de date.”
Așa cum a explicat Sheffield, PNNL are două puncte forte care îi vor ajuta să rezolve această problemă. În primul rând, PNNL are o experiență semnificativă în domeniul inteligenței artificiale. În plus, echipa are cunoștințe semnificative în domeniul materialelor și armelor nucleare. Echipa PNNL înțelege probleme precum procesarea plutoniului și tipurile de semnale unice dezvoltării armelor nucleare. Combinația de experiență în inteligență artificială, experiență în securitate națională și cunoștințe în domeniul nuclear înseamnă că PNNL este unic situat pentru a face față problemelor de securitate nucleară și inteligență artificială.












