stub Forskningsteam sigter mod at skabe forklarende kunstig intelligens til nuklear ikke-spredning og nuklear sikkerhed - Unite.AI
Følg os

Kunstig intelligens

Forskningsteamet sigter mod at skabe forklarende kunstig intelligens til nuklear ikke-spredning og nuklear sikkerhed

mm
Opdateret on

Det er forskere fra Pacific Northwest National Laboratory (PNNL). forsøger at gøre AI forklarlig med henblik på nuklear ikke-spredning og national sikkerhed. Målet er at gøre de beslutninger, der returneres af AI-modeller, gennemsigtige for enhver beslutning, der involverer nuklear sikkerhed.

Mere opmærksomhed end nogensinde er blevet rettet mod vigtigheden af ​​forklarelige AI-modeller i en bestræbelse på at løse "black box"-problemet med maskinlæring. AI-modeller har ofte tillid til at træffe komplekse beslutninger, selv når de ansvarlige for at udføre disse beslutninger ikke forstår rationalet bag disse beslutninger. Jo højere potentiale for katastrofe og fare disse beslutninger træffes i, jo vigtigere er det, at rationalet bag disse beslutninger er gennemsigtige.

Det er måske ikke nødvendigt at forstå ræsonnementet bag klassifikationer, hvis en AI-applikation gør noget så simpelt som at kategorisere billeder af frugt, men i sager, der involverer atomvåben eller produktion af nukleart materiale, er det bedre at åbne den sorte boks, der ligger til grund for den AI, der bruges i disse scenarier.

PNNL-forskere arbejder på at gøre AI forklarelig ved hjælp af en række nye teknikker. Disse forskere arbejder sammen med Department of Energy's National Nuclear Security Administration (NNSA)'s Office of Defense Nuclear Nonproliferation Research and Development (DNN R&D). DNN R&D er ansvarlig for tilsynet med USA's evne til at overvåge og detektere produktionen af ​​nukleart materiale, udviklingen af ​​atomvåben og detonationen af ​​atomvåben rundt om i verden.

I betragtning af hvor høje risiciene er, når det kommer til spørgsmål relateret til nuklear ikke-spredning, er det afgørende at vide, præcis hvordan et AI-system når frem til sine konklusioner om disse spørgsmål. Angie Sheffield er senior program manager hos DNN R&D. Ifølge Sheffield kan det ofte være svært at inkorporere nye teknologier som AI-modeller i traditionelle videnskabelige teknikker og rammer, men processen med at inkorporere AI i disse systemer kan gøres lettere ved at designe nye måder at interagere mere effektivt med disse systemer på. Sheffield argumenterer for, at forskere bør skabe værktøjer, der gør det muligt for udviklere at forstå, hvordan disse sofistikerede teknikker fungerer.

Den relative knaphed på data, der involverer atomeksplosioner og udvikling af atomvåben, betyder, at forklarlig AI er endnu vigtigere. Træning af AI-modeller i dette rum resulterer i modeller, der kan være mindre pålidelige takket være, hvor relativt lidt data der er sammenlignet med en opgave som ansigtsgenkendelse. Som følge heraf skal hvert trin i den proces, som modellen bruger til at træffe en beslutning, kunne inspiceres.

Mark Greaves, en forsker ved PNNL, forklarede, at de risici, der er forbundet med nuklear spredning, kræver et system, der kan informere folk om, hvorfor et givet svar er blevet valgt.

Som Greaves forklarede via EurekaAlert:

"Hvis et AI-system giver en fejlagtig sandsynlighed for, om en nation besidder et atomvåben, er det et problem af en helt anden skala. Så vores system skal i det mindste producere forklaringer, så mennesker kan kontrollere dets konklusioner og bruge deres egen ekspertise til at korrigere for AI-træningshuller forårsaget af sparsomheden af ​​data."

Som forklaret af Sheffield har PNNL to styrker, der vil hjælpe dem med at løse dette problem. For det første har PNNL betydelig erfaring inden for kunstig intelligens. Derudover har holdet betydelig domæneviden, når det kommer til nukleare materialer og våben. PNNL-teamet forstår spørgsmål som behandlingen af ​​plutonium og de typer af signaler, der er unikke for udviklingen af ​​atomvåben. Kombinationen af ​​AI-erfaring, national sikkerhedserfaring og viden om nuklear domæne betyder, at PNNL er unikt egnet til at håndtere spørgsmål om nuklear national sikkerhed og AI.