关注我们.

人工智能

研究团队旨在为核不扩散和核安全创建可解释的人工智能

mm

太平洋西北国家实验室 (PNNL) 的研究人员正尝试让人工智能变得可解释,以用于核不扩散和国家安全。目标是让人工智能模型返回的决策对于涉及核安全的任何决策都是透明的。

为了解决机器学习的“黑匣子”问题,可解释的人工智能模型的重要性比以往任何时候都受到更多关注。人工智能模型通常被认为能够做出复杂的决策,即使负责执行这些决策的人不理解这些决策背后的基本原理。这些决定发生灾难和危险的可能性越大,这些决定背后的理由透明就越重要。

如果人工智能应用程序正在做像对水果图像进行分类这样简单的事情,则可能没有必要了解分类背后的推理,但对于涉及核武器或核材料生产的情况,最好打开这些中使用的人工智能背后的黑匣子。场景。

PNNL 科学家正在努力使用各种新技术来解释人工智能。 这些研究人员正在与能源部国家核安全管理局 (NNSA) 的国防核不扩散研究与发展办公室 (DNN R&D) 合作。 DNN 研发部负责监督美国监测和探测核材料生产、核武器开发以及全球核武器爆炸的能力。

考虑到与核不扩散相关的问题的风险有多高,了解人工智能系统如何得出有关这些问题的结论至关重要。 Angie Sheffield 是 DNN R&D 的高级项目经理。 谢菲尔德表示,将人工智能模型等新技术融入传统科学技术和框架通常很困难,但通过设计与这些系统更有效交互的新方法,可以使将人工智能融入这些系统的过程变得更容易。 谢菲尔德认为,研究人员应该创建工具,使开发人员能够了解这些复杂技术的运作方式。

涉及核爆炸和核武器开发的数据相对稀缺,这意味着可解释的人工智能更加重要。 在这个领域训练人工智能模型可能会导致模型不太可靠,因为与人脸识别等任务相比,数据相对较少。 因此,模型用于做出决策的过程的每一步都需要进行检查。

PNNL 研究员马克·格里夫斯 (Mark Greaves) 解释说,核扩散固有的风险要求建立一个能够告知人们为什么选择给定答案的系统。

正如格里夫斯通过 EurekaAlert 解释的那样:

如果人工智能系统对某个国家是否拥有核武器得出错误的概率,那将是一个完全不同层面的问题。因此,我们的系统至少必须提供解释,以便人类能够检验其结论,并运用自身的专业知识来弥补数据稀疏导致的人工智能训练差距。

正如谢菲尔德所解释的那样,PNNL 有两个优势可以帮助他们解决这个问题。 首先,PNNL在人工智能领域拥有丰富的经验。 此外,该团队在核材料和武器方面拥有丰富的领域知识。 PNNL 团队了解钚的处理以及核武器开发特有的信号类型等问题。 人工智能经验、国家安全经验和核领域知识的结合意味着 PNNL 独特地适合处理核国家安全和人工智能事务。

博主和程序员,擅长 机器学习 深度学习 主题。 丹尼尔希望帮助其他人利用人工智能的力量造福社会。