伦理
五角大楼正在开发新的人工智能技术

美国国防部正在加大开发人工智能(AI)技术的努力。这是其他国家,尤其是中国,在人工智能军备竞赛中取得进展之时。
五角大楼正在开发一支能够独立操作的、由人工智能驱动的无人机群。它们将能够识别和跟踪目标。其他努力包括情报融合、“全领域”命令和控制以及自主系统。
五角大楼的联合人工智能中心(JAIC)要求人工智能开发人员和无人机群体建设者合作,以帮助搜索和救援任务。JAIC有四个核心研究领域,搜索和救援任务是人道主义和灾难救援的一部分。同一个程序也在预测维护、网络空间操作和机器人流程自动化方面开发人工智能解决方案方面发挥作用。
信息请求(RFI)的目标是寻找能够自主飞行的全栈搜索和救援无人机群。五角大楼还希望能够检测人类和其他目标,以及将数据和视频传回中央位置。它还寻求公司或团队开发的算法、机器训练过程和补充政府现有数据的数据。
如果一切按计划进行,政府将与多个供应商签订合同,“这些供应商共同可以提供飞往预定位置/区域、找到人员和人造物体(通过边缘处理)并提示分析师查看通过数据链传输到控制站的检测结果的能力”,正如RFI中写的那样。“传感器应能够在白天或晚上向分析师站发送全动态视频;然而,系统通常不会流式传输,因为人工智能将监视图像,而不是人。”
所寻求的系统需要具备足够的处理能力,以便人工智能可以在没有人工干预的情况下运行。它应该能够检测和监视,以及向操作员流式传输实时视频。然后,人类操作员将能够控制无人机。
这些发展发生在五角大楼深入人工智能世界之时。
在十月份,国防创新委员会,一家五角大楼的咨询机构,发布了一份道德原则清单,作为开发人工智能启用武器的指导方针。这些指南旨在帮助控制这些武器在战场上的使用。委员会的建议没有法律依据,五角大楼可以决定是否使用它们。
根据国防部联合人工智能中心主任杰克·沙纳汉将军的说法,他希望这些建议能够带来人工智能的负责任和道德使用。
“DIB的建议将有助于增强DOD对最高道德标准的承诺,如DOD人工智能战略中概述的,同时拥抱美国军队对技术创新进行严格测试和投入使用的强大历史,”沙纳汉在发给记者的电子邮件声明中说。
2017年,116位技术高管要求联合国禁止使用自主武器。同时,谷歌禁止在任何武器系统中使用其人工智能算法。这是在员工开始抱怨公司在分析无人机录像的项目中的作用之后发生的。像微软和亚马逊这样的公司目前正在与军方合作,同时推动更好的技术方法。
