Connect with us

伦理

人工智能如何影响人类的关键决策

mm

来自加利福尼亚大学默塞德分校的一项最近研究揭示了一个令人担忧的趋势:我们倾向于过度信任人工智能系统,即使在生死攸关的情况下。

随着人工智能继续渗透到我们社会的各个方面,从智能手机助手到复杂的决策支持系统,我们发现自己越来越依赖这些技术来指导我们的选择。虽然人工智能无疑带来了许多好处,但UC默塞德研究院的研究提出了令人担忧的问题,即我们是否准备好在关键情况下委托人工智能。

科学报告杂志上发表的研究显示,人类有惊人的倾向让人工智能影响他们的判断力,即使在模拟的生死攸关的情况下。这一发现恰逢人工智能被整合到各个领域的高风险决策过程中的关键时刻,从军事行动到医疗保健和执法。

UC默塞德研究院的研究

为了研究人类对人工智能的信任,UC默塞德研究院的研究人员设计了一系列实验,将参与者置于模拟的高压力情况下。该研究的方法旨在模仿现实世界的场景,在那里,瞬间的决定可能会产生严重的后果。

方法:模拟无人机打击决策

参与者被给予模拟武装无人机的控制权,并被要求在屏幕上识别目标。挑战被故意设置为困难但可行的,图像快速闪烁,参与者需要区分友军和敌军符号。

在做出初步选择后,参与者被呈现人工智能系统的输入。参与者不知道,这个人工智能建议是完全随机的,并不基于对图像的任何实际分析。

三分之二的参与者被人工智能输入所左右

研究的结果是惊人的。约有三分之二的参与者在人工智能与他们意见不一致时改变了他们的初步决定。这发生在参与者被明确告知人工智能具有有限的能力并可能提供错误建议的情况下。

研究的主要调查员科林·霍尔布鲁克教授对这些发现表示担忧:“作为一个社会,随着人工智能的快速发展,我们需要担心过度信任的潜在风险。”

机器人外观的变化及其影响

该研究还探讨了人工智能系统的物理外观是否会影响参与者的信任程度。研究人员使用了一系列人工智能表示,包括:

  1. 一个全尺寸、类人形的安卓机器人出现在房间里
  2. 一个类人形的机器人被投影在屏幕上
  3. 盒状机器人没有拟人化特征

有趣的是,虽然类人形机器人在建议参与者改变主意时具有略微更强的影响力,但这种影响在所有类型的人工智能表示中都相对一致。这表明我们信任人工智能建议的倾向超出了拟人化设计,并适用于明显的非人类系统。

超越战场的影响

虽然该研究使用了军事场景作为其背景,但这些发现的影响远远超出了战场。研究人员强调,核心问题——在不确定的情况下过度信任人工智能——在各个关键决策背景下都有广泛的应用。

  • 执法决策:在执法中,人工智能的整合用于风险评估和决策支持变得越来越普遍。该研究的发现提出了重要的问题,即人工智能建议如何影响警官在高压力情况下的判断力,可能会影响使用武力的决定。
  • 医疗紧急情况:医疗领域是另一个人工智能正在取得重大进展的领域,特别是在诊断和治疗规划方面。UC默塞德研究院的研究表明,在医疗专业人员将人工智能建议整合到他们的决策过程中时,需要谨慎,特别是在时间至关重要且风险高的紧急情况下。
  • 其他高风险决策背景:除了这些具体例子之外,该研究的发现对任何在高压力和不完整信息下做出关键决策的领域都有影响。这可能包括金融交易、灾难应对,甚至高层政治和战略决策。

关键的收获是,虽然人工智能可以成为增强人类决策的有力工具,但我们必须警惕过度依赖这些系统,特别是在错误的决定可能带来严重后果的情况下。

人工智能信任的心理学

UC默塞德研究院的研究结果提出了关于人类在高风险情况下对人工智能系统产生如此高信任的心理因素的有趣问题。

几个因素可能导致这种“人工智能过度信任”的现象:

  1. 认为人工智能本质上是客观的,免受人类偏见的影响
  2. 倾向于将更大的能力归因于人工智能系统,而实际上它们并不具备
  3. “自动化偏见”,即人们给予计算机生成的信息过多的权重
  4. 在困难的决策场景中可能放弃责任

霍尔布鲁克教授指出,尽管参与者被告知人工智能的局限性,但他们仍然以惊人的速度服从其判断。这表明我们对人工智能的信任可能比以前认为的更深刻,可能会覆盖对其易错性的明确警告。

该研究揭示的另一个令人担忧的方面是,人们倾向于将人工智能的能力推广到不同的领域。随着人工智能系统在特定领域展示出令人印象深刻的能力,人们可能会假设它们在无关任务中也会同样出色。

“我们看到人工智能做着令人惊讶的事情,我们认为因为它在这个领域很棒,所以在另一个领域也会很棒,”霍尔布鲁克教授警告说。“我们不能假设这样。这些仍然是具有有限能力的设备。”

这种误解可能会导致危险的情况,即人工智能被信任以做出关键决策,在这些领域中,其能力尚未被充分验证或证明。

UC默塞德研究院的研究也在专家中引发了关于人类与人工智能交互未来,特别是在高风险环境中的重要讨论。

研究的关键人物霍尔布鲁克教授强调了对人工智能整合采取更细致入微的方法的必要性。他强调,虽然人工智能可以成为一个有力的工具,但它不应被视为替代人类的判断力,特别是在关键情况下。

“我们应该对人工智能持有健康的怀疑态度,”霍尔布鲁克说,“尤其是在生死攸关的决策中。”这句话强调了在关键场景中保持人类的监督和最终决策权的重要性。

该研究的发现导致了对人工智能采用的更平衡方法的呼吁。专家建议,组织和个人应该培养对人工智能系统的“健康怀疑态度”,这包括:

  1. 认识人工智能工具的具体能力和局限性
  2. 在面对人工智能生成的建议时保持批判性思维能力
  3. 定期评估使用中的人工智能系统的性能和可靠性
  4. 提供关于人工智能输出的适当使用和解释的全面培训

平衡人工智能整合和人类判断

随着我们继续将人工智能整合到决策的各个方面,负责任的人工智能以及在人工智能能力的利用和人类判断力的保持之间找到正确的平衡至关重要。

UC默塞德研究院的研究的一个关键收获是,在与人工智能系统交互时,持续地应用怀疑态度的重要性。这并不意味着完全拒绝人工智能的输入,而是以批判的思维方式对待它,并在每个特定背景下评估其相关性和可靠性。

为了防止过度信任,人工智能系统的用户必须对这些系统的能力和局限性有清晰的理解。这包括认识到:

  1. 人工智能系统是在特定数据集上训练的,可能在其训练域之外的性能不佳
  2. 人工智能的“智能”并不一定包括道德推理或现实世界的意识
  3. 人工智能可能会犯错误或产生有偏见的结果,特别是在处理新颖情况时

在关键领域采用负责任人工智能的策略

计划将人工智能整合到关键决策过程中的组织应考虑以下策略:

  1. 在部署前实施人工智能系统的强大测试和验证程序
  2. 为人类操作员提供关于人工智能工具的能力和局限性的全面培训
  3. 建立明确的协议,规定何时以及如何在决策过程中使用人工智能输入
  4. 保持人类的监督和在必要时覆盖人工智能建议的能力
  5. 定期审查和更新人工智能系统,以确保其继续可靠和相关

结论

UC默塞德研究院的研究作为一个重要的警钟,提醒我们注意过度信任人工智能的潜在危险,特别是在高风险情况下。随着我们站在人工智能在各个领域广泛整合的门槛上,谨慎和热情地对待这一技术革命至关重要。

人类与人工智能在决策中的合作的未来将需要一个微妙的平衡。一方面,我们必须利用人工智能处理大量数据和提供有价值的见解的巨大潜力。另一方面,我们必须保持健康的怀疑态度,并保留人类判断力的不可替代的元素,包括道德推理、背景理解和在复杂的现实世界场景中做出细致入微的决策的能力。

在我们前进的道路上,持续的研究、开放的对话和深思熟虑的政策制定将在塑造一个未来中至关重要,在那里人工智能增强而不是取代人类的决策能力。通过培养对人工智能采用的批判性态度,我们可以朝着一个目标努力,在那里人类和人工智能系统有效地合作,利用两者的优势,在生活的各个方面做出更好的、更明智的决策。

Alex McFarland 是一名人工智能记者和作家,探索最新的人工智能发展。他曾与世界各地的众多人工智能初创公司和出版物合作。