Connect with us

核兵器の不拡散と核セキュリティのための説明可能なAIの開発を目指す研究チーム

人工知能

核兵器の不拡散と核セキュリティのための説明可能なAIの開発を目指す研究チーム

mm

パシフィック・ノースウェスト・ナショナル研究所(Pacific Northwest National Laboratory、PNNL)の研究者は、核兵器の不拡散と国家安全保障の目的のために、AIを説明可能なものにすることを試みている。AIモデルが核セキュリティに関わる決定を透明性を持って返すことを目標としている。

説明可能なAIモデルへの注目は、機械学習の「ブラックボックス」問題を解決するために、以前よりも高まっている。AIモデルは、決定の責任者がその決定の根拠を理解していない場合でも、複雑な決定を下すことが多い。決定が下される状況の危険性が高くなるほど、その決定の根拠が透明性を持つことが重要になる。

AIアプリケーションが果物の画像を分類するなどの単純なタスクを実行する場合は、分類の根拠を理解する必要はないかもしれないが、核兵器や核材料の生産に関わる場合は、使用されるAIの根拠を理解することが重要である。

PNNLの科学者は、新しい技術を使用してAIを説明可能にすることを目指している。これらの研究者は、エネルギー省の核兵器の不拡散と核セキュリティの研究開発事務局(DNN R&D)と協力している。DNN R&Dは、核材料の生産、核兵器の開発、世界中での核兵器の爆発を監視および検出するためのアメリカ合衆国の能力の監督を担当している。

核兵器の不拡散に関わる問題は高リスクであるため、これらの問題についてAIシステムがどのように結論に達するかを理解することが重要である。DNN R&Dのシニアプログラムマネージャーのエンジェル・シェフィールドによると、新しい技術やAIモデルを従来の科学技術やフレームワークに組み込むことは難しいことが多いが、これらのシステムとのやり取りをより効果的に行う新しい方法を設計することで、このプロセスを容易にすることができる。シェフィールドは、研究者がこれらの高度な技術がどのように動作するかを理解できるツールを作成する必要があると主張している。

核爆発や核兵器の開発に関するデータは比較的少ないため、説明可能なAIはより重要となる。この分野でのAIモデルのトレーニングにより、データの量が少ないため、モデルが信頼性が低くなる可能性がある。したがって、モデルが決定を下すために使用するプロセスの各ステップを検査できる必要がある。

PNNLの研究者、マーク・グレイブスは、核兵器の不拡散のリスクは、特定の答えがなぜ選択されたのかについて人々に情報を提供できるシステムを必要とすることを説明した。

グレイブスはEurekaAlertで次のように述べた。

「AIシステムが核兵器を保有する国家について誤った確率を示すと、それはまったく別のスケールの問題となる。したがって、私たちのシステムは、人間がその結論を確認し、データの希少性によって生じるAIのトレーニングのギャップを自らの専門知識を使用して修正できるように、説明を提供する必要がある。」

シェフィールドによると、PNNLには、この問題を解決するために2つの強みがある。第一に、PNNLにはAI分野での豊富な経験がある。第二に、チームには核材料や核兵器に関する重要なドメイン知識がある。PNNLチームは、プルトニウムの加工や核兵器の開発に特有の信号などの問題を理解している。AIの経験、国家安全保障の経験、核ドメインの知識の組み合わせにより、PNNLは核国家安全保障とAIの問題に対処するために独自に適している。

ブログ作家およびプログラマーで、 Machine Learning Deep Learning のトピックを専門としています。Danielは、AIの力を社会のために利用する手助けを他者に与えることを希望しています。