Connect with us

Výzkumný tým se snaží vytvořit vysvětlovatelnou umělou inteligenci pro jadernou nešíření a jadernou bezpečnost

Umělá inteligence

Výzkumný tým se snaží vytvořit vysvětlovatelnou umělou inteligenci pro jadernou nešíření a jadernou bezpečnost

mm

Výzkumníci z Pacific Northwest National Laboratory (PNNL) se snaží učinit umělou inteligenci vysvětlovatelnou pro účely jaderného nešíření a národní bezpečnosti. Cílem je učinit rozhodnutí vrácená modely umělé inteligence transparentními pro jakékoli rozhodnutí týkající se jaderné bezpečnosti.

Větší pozornost než kdykoli předtím je věnována důležitosti vysvětlovatelných modelů umělé inteligence, v rámci snahy vyřešit problém “černé skříňky” strojového učení. Modely umělé inteligence jsou často důvěřovány, aby činily komplexní rozhodnutí, i když ti, kteří jsou odpovědní za provedení těchto rozhodnutí, nerozumí důvodu, proč byla tato rozhodnutí učiněna. Čím vyšší je potenciál katastrofy a nebezpečí, tím důležitější je, aby důvod, proč byla tato rozhodnutí učiněna, byl transparentní.

Může se stát, že není nutné rozumět důvodu, proč byly provedeny klasifikace, pokud aplikace umělé inteligence dělá něco tak jednoduchého, jako je kategorizace obrázků ovoce, ale v případech, které se týkají jaderných zbraní nebo výroby jaderného materiálu, je lepší otevřít “černou skříňku” podkladů umělé inteligence používané v těchto scénářích.

Výzkumníci z PNNL pracují na tom, aby učinit umělou inteligenci vysvětlovatelnou pomocí různých nových technik. Tito výzkumníci pracují společně s Úřadem pro obranné jaderné nešíření a výzkum a vývoj (DNN R&D) Národní správy jaderné bezpečnosti (NNSA) Ministerstva energetiky. DNN R&D je odpovědný za dohled nad schopností Spojených států monitorovat a detekovat výrobu jaderného materiálu, vývoj jaderných zbraní a detonaci jaderných zbraní po celém světě.

Vzhledem k tomu, jak vysoké jsou rizika, když se jedná o otázky související s jaderným nešířením, je kritické vědět, jak systém umělé inteligence dospěje ke svým závěrům o těchto otázkách. Angie Sheffield je senior program manažerka v DNN R&D. Podle Sheffieldové může být často obtížné začlenit nové technologie, jako jsou modely umělé inteligence, do tradičních vědeckých technik a rámců, ale proces začlenění umělé inteligence do těchto systémů lze usnadnit navrhnutím nových způsobů interakce s těmito systémy. Sheffieldová argumentuje, že výzkumníci by měli vytvořit nástroje, které umožňují vývojářům pochopit, jak tyto sofistikované techniky fungují.

Relativní nedostatek dat týkajících se jaderných explozí a vývoje jaderných zbraní znamená, že vysvětlovatelná umělá inteligence je ještě důležitější. Školení modelů umělé inteligence v tomto prostoru vede k modelům, které mohou být méně spolehlivé kvůli relativně malému množství dat ve srovnání s úkolem, jako je rozpoznávání obličeje. V důsledku toho musí být každý krok procesu, který model používá k rozhodnutí, kontrolovatelný.

Mark Greaves, výzkumník z PNNL, vysvětlil, že rizika spojená s jaderným nešířením vyžadují systém, který může informovat lidi o důvodu, proč byla vybrána určitá odpověď.

Jak Greaves vysvětlil prostřednictvím EurekaAlert:

“Pokud systém umělé inteligence poskytne chybnou pravděpodobnost, zda určitá země vlastní jadernou zbraň, je to problém zcela jiného rozsahu. Naše systém musí alespoň poskytovat vysvětlení, aby lidé mohli kontrolovat jeho závěry a použít svou vlastní odbornost k opravě mezer ve školení umělé inteligence způsobených nedostatkem dat.”

Jak Sheffieldová vysvětlila, PNNL má dvě síly, které jim pomohou vyřešit tento problém. První je, že PNNL má podstatné zkušenosti v oblasti umělé inteligence. Druhá je, že tým má významné znalosti v oblasti jaderných materiálů a zbraní. Tým PNNL rozumí otázkám, jako je zpracování plutonia a typy signálů specifických pro vývoj jaderných zbraní. Kombinace zkušeností s umělou inteligencí, národní bezpečností a jadernými znalostmi znamená, že PNNL je jedinečně vybaven pro řešení otázek jaderné národní bezpečnosti a umělé inteligence.

Blogger a programátor se specializací na Machine Learning a Deep Learning témata. Daniel doufá, že pomůže ostatním využít sílu AI pro sociální dobro.