关注我们.

思想领袖

为什么盲目信任人工智能可能是你迄今为止最糟糕的决定

mm

在1979,一 IBM培训手册 提出了一个简单但引人注目的警告:“计算机永远不能被追究责任;因此,计算机永远不能做出管理决策。”45 多年后的今天,这句话感觉就像一个被忽视的预言。

2025年,人工智能不再只是辅助,它还能自主决策,而且在很多情况下,它不仅能做决定,还能引领潮流。事实上,大约 74% 的高管比同事或朋友更信任人工智能提供的商业建议,38% 的高管相信人工智能能为他们做出商业决策,44% 的高管更倾向于相信技术的推理而非自身的洞察力。这种转变显而易见:人工智能已成为一种新的直觉。

但有一个问题。只有算法值得信任,人工智能才有可能获得信任。而盲目信任,尤其是在我们无法理解或审计的黑匣子中,就是一种伪装成进步的风险。就像人类领导力一样,缺乏责任感的信任是危险的。如果人工智能犯错,谁来承担责任?

当工具成为老板

人工智能最初只是用于简化后台运营的工具,如今已应用于核心业务流程。但企业不仅使用人工智能来支持人类决策,他们现在更信赖人工智能,尤其是生成式人工智能 (GenAI),来制定从业务战略到客户服务、财务建模等各个方面的业务决策。

这种转变是可以理解的。人工智能不会分心,不会忘记指令,也不会让情绪左右其判断。对许多公司来说,这为规避人为失误的风险提供了一种颇具吸引力的解决方案。然而,一个关键问题依然存在:我们能相信人工智能能够掌控一切,独立做出决策吗?

这个问题很难直接回答,但我们可以参考一下我们如何判断人们的可信度:能力、可靠性和明确的意图。同样的原则也适用于人工智能。

要想获得信任,人工智能系统必须提供准确、及时且恰当的结果。但信任度和容错率会因具体情况而异。例如,通过医学影像诊断癌症时,失败的门槛极低。相反,在为营销活动构思创意时,则有更大的实验空间。

我们已经看到人工智能在信贷审批等领域被用于自主决策,银行利用算法在几秒钟内确定贷款资格。零售商使用人工智能来管理库存和定价,无需人工干预。但我们也看到了一些失败的例子,例如自动驾驶汽车误判路况。

一个警示故事表明,在没有足够监管的情况下过度信任人工智能会带来风险。40多岁的黑人男子德里克·莫布里(Derek Mobley)通过 Workday 人工智能驱动的招聘系统 自2017年以来,他一直申请,但每次都被拒绝。他声称存在基于年龄和种族的歧视。2025年40月,法院批准了一项全国性的集体诉讼。该群体包括所有自2020年XNUMX月以来通过Workday申请并根据AI建议被拒绝的XNUMX岁以上申请人。

这个例子说明了一点:人工智能缺乏情商、道德推理能力,以及天生的公平感。而且,由于人工智能正在从人类助手转变为独立决策者,现在出现了一个问责制的空白。当算法在无人制衡的情况下运行,它们可能会做出错误的决策,并强化现有的偏见。

关于黑匣子的问题

黑匣子——当人工智能的系统和逻辑不完全可见时——这种情况越来越普遍。尽管它们可能具有可见的层次,但开发人员和用户仍然无法看到每一层发生的事情,这使得它们不透明。

例如,ChatGPT 是一个黑匣子,因为即使是它的创造者 不确定它是如何工作的因为它是在如此庞大的数据集上进行训练的。但由于缺乏透明度,在没有完全理解其工作原理的情况下,我们真的可以“信任”一个人工智能模型吗?

简而言之,没有: 人工智能幻觉 情况正在恶化。这意味着在财务决​​策、法律咨询和医疗洞察等高风险场景中,人工智能需要严格的验证、交叉引用和人工监督。

此 迪士尼和环球影城的诉讼 2025年XNUMX月提交的诉讼强化了这一点。工作室声称,GenAI工具在未经同意的情况下,利用受版权保护的材料进行训练,以创建新内容。此案凸显了一个新的现实:当公司部署他们并不完全理解的人工智能模型时,他们可能要为所做的决定承担责任。而无知并非辩护,而是一种责任。

然而,我们常常信任那些我们并不理解的复杂系统。例如,大多数航空旅客无法解释飞行的物理原理,但人们仍然满怀信心地登机,因为我们通过反复接触、集体经验以及良好的安全记录建立了信任。

同样的逻辑也适用于人工智能。期望每个人都理解法学硕士(LLM)的实际运作方式是不切实际的。但信任并非建立在理解之上;它需要熟悉、对局限性的透明性以及经过验证的可靠性能模式。航空航天工程师知道应该进行哪些测试以及错误是什么样的,我们也必须要求GenAI提供商也这样做。人工智能的基本原则应该是信任,但要验证。

此外,企业领导者常常认为人工智能是解决所有业务问题的灵丹妙药。然而,这种误区在整合人工智能时困扰着许多公司。领导者可能更喜欢复杂精密的模型,但如果进行成本效益分析,更简单的解决方案可能更合适。人工智能是一种强大的工具,但它并不适合所有任务。企业在选择工具之前需要认清问题所在。

重建对人工智能的信任

虽然盲目信任人工智能显然是一个问题,但如果安全使用,人工智能系统和算法可以成为企业拥有的最伟大的工具。

对于希望利用人工智能工具的企业,首先要研究的是供应商尽职调查。当企业确定某个领域可以从人工智能效率中受益时,企业领导者不仅应该根据性能声明来评估供应商,还应该根据治理控制来评估。这包括审查模型的开发方式、是否配备了可解释性工具、如何监控偏见以及是否有审计线索。选择流程透明的供应商对于从一开始就降低风险至关重要。

在建立对人工智能系统的信任时,最重要的一点或许是确保使用干净、有代表性且记录良好的数据集进行数据治理。俗话说:垃圾进,垃圾出。因此,如果数据不完整、有偏差或不准确,即使是最先进的模型也会产生不可靠的结果。

为了确保数据适用于人工智能,企业应该:

  • 审核现有数据集是否存在差距和重复,并检查是否存在偏见来源

  • 标准化数据格式

  • 实施定义所有权和访问控制的数据治理政策

企业领导者需要进行的另一个关键步骤是在不同条件下进行压力测试。尽管模型在受控测试中可能表现良好,但了解模型在面对新数据或意外输入时的局限性至关重要。正因如此,在各种情况下测试人工智能至关重要,需要使用不同类型的用户、不同的用例以及不同时间段的数据。

AI 验证也是一项持续性的任务。随着数据随时间变化,即使是可靠的 AI 模型也可能失去准确性。因此,定期监控至关重要。企业需要监控模型的日常运行情况:它是否仍然准确?误报率是否正在逐渐上升?与任何需要维护的系统一样,模型也应该定期使用新数据进行重新训练,以保持相关性。

人工智能本身无所谓值得信赖或不值得信赖;它是由其学习的数据、创造它的人们以及管理它的规则塑造的。随着人工智能从一种实用工具发展成为商业顾问,领导者不仅可以选择使用它,而且可以以深思熟虑且合乎道德的方式使用它。如果我们能够正确运用人工智能,那么未来人工智能不仅将变得强大,还将承担责任,其开发者和监管者将承担明确的责任。

Martin Lewit 是 尼苏姆,一家专注于数字商务和演进的全球咨询合作伙伴  构建人工智能平台和定制解决方案,以释放增长、优化运营并创造长期价值。

Martin 在使用创新解决方案解决复杂业务挑战方面拥有丰富的经验,他的兴趣包括发展和培训与他一起工作的人,建立联系以创造新的和令人兴奋的机会,提供有效的领导力、战略愿景,并每天专注于建设创新文化,遵循公司“共同创造成功”的座右铭。