Alfred Crews, Jr. 是 BAE Systems Inc Intelligence & Security 部门的副总裁和首席法律顾问,后者是为美国国防部、情报社区、联邦民用机构和全球部署的军队提供大规模系统工程、集成和维护服务的领先者,跨越空中、陆地、海洋、空间和网络领域。 Crews 监督该部门的法律、出口控制和道德职能。
作者:Alfred Crews, Jr,BAE Systems Inc. 智能与安全部门副总裁兼首席法律顾问今年早些时候,在全球大流行之前,我参加了查尔斯顿的西点军校情报伦理会议,我们讨论了与保护国家安全相关的情报收集中的伦理问题。在国防行业,我们正在看到知识、计算和先进技术的普及,特别是在人工智能(AI)和机器学习(ML)领域。然而,在情报收集或实时战斗的背景下部署 AI 可能会带来重大问题。人工智能与量子计算带来的风险我们必须质疑、分析并确定前进的道路,即在战争决策过程中使用人工智能与量子计算能力。例如,记得终结者吗?随着我们的技术取得飞跃,斯凯网呈现的现实就在我们面前。我们可能会问自己,“斯凯网会来抓我们吗?”让我们一起走下记忆之路;人工智能机器接管了,因为它们有自己思考和做出决定的能力,而无需人类的指导。当机器得出结论人类是一个 bug 时,它们就出发去摧毁人类。不要误会,我认为人工智能有很大的潜力,但我相信它必须有控制参数,因为它涉及风险因素。人工智能的伦理模糊性和哲学困境我认为这正是为什么美国国防部(DoD)颁布了自己的 人工智能伦理原则 的原因,因为人工智能的使用带来了新的伦理模糊性和风险。当将人工智能与量子计算能力相结合时,做出决定的能力会改变,失去控制的风险会增加——比我们今天意识到的更大。量子计算使我们的人类大脑的操作系统相形见绌,因为超级计算机可以比我们的人类大脑更快、更准确地进行指数级更多的计算。此外,人工智能与计算的使用呈现出一个哲学困境。在什么时候,世界会允许机器拥有自己的意志;如果机器被允许独立思考,那是否意味着机器已经具有自我意识?是否具有自我意识就构成了生命?作为一个社会,我们尚未确定如何定义这种情况。因此,目前,机器在没有人类控制的情况下采取行动,可能会导致后果。机器是否会覆盖人类的干预以停止火灾?如果机器在独立运行,是否能够拔掉插头?在我看来,从防御角度使用人工智能很容易做到。然而,如何更容易转向进攻?在进攻中,机器将在现场做出战斗射击决定。机器射击敌人是否构成违反日内瓦公约和战争法?以快速的速度进入这个领域,世界必须同意人工智能和量子计算在战斗中的使用必须遵守现有的法律。国防部在使用人工智能的自治系统时有一个立场,即总是会有一个人参与决策过程;一个人将做出最终决定,即是否触发武器。然而,如果对手决定走另一条路,让人工智能机器做出所有最终决定怎么办?那么机器,将如我们所讨论的,变得更快、更聪明、更准确,将拥有优势。让我们看看配备了人工智能和面部识别的无人机:无人机根据预先确定的目标标签为恐怖分子而自行发射。谁对发射负责?如果有偏见错误,是否有问责制?人工智能/机器学习中的偏见研究表明,机器不太可能犯错误,而人类更容易犯错误。然而,研究也证明了机器学习中的偏见是基于教机器的“人类教师”。国防部的五项人工智能伦理原则提到了现有的偏见,当它指出“该部门将采取刻意的步骤来最小化人工智能能力中的无意偏见。”我们已经知道通过 经过验证的研究 ,在使用面部识别应用程序时,对有色人种存在偏见,误报率更高。当一个人创建代码来教机器如何做出决定时,就会存在偏见。这可能是无意的,因为创建人工智能的人不知道自己内心的偏见。那么,如何消除偏见?人工智能的输出只有在输入控制的情况下才是良好的。因此,必须有控制措施。你必须控制流入的数据,因为这可能会使人工智能结果变得无效。开发人员将不断地重写代码以消除偏见。世界定义技术的最佳使用技术本身并非善也非恶。关键在于一个国家如何使用它,这可能会使最好的意图变成错误。随着技术以影响人类生活的方式发展,世界必须共同努力来定义适当的行动。如果我们在人工智能应用中排除人类,我们也排除了在触发之前的暂停——那是指导我们的道德指南针;那是在我们停止和质疑的暂停,“这是正确的吗?”一台被教导去参与的机器将没有这样的暂停。那么,问题是,世界在未来会容忍这种情况吗?世界会走多远来允许机器做出战斗决策?