关注我们.

思想领袖

人工智能让我们速度更快,但智慧却不如速度,领导者应该如何应对?

mm

对许多人来说,人工智能为各种商业挑战提供了解决方案。它可以编写辅助驾驶程序、改进工作流程自动化,并充当分析助手。但尽管企业发展速度加快,他们的思考能力却有所下降。因此,人工智能带来的真正风险并非取代工作岗位,而是知识流失。 

研究已经证实了这一点。瑞士商学院 (SBS) 发现,对人工智能的依赖程度越高,就越容易受到…… 批判性思维能力下降 能力。

这种侵蚀会带来严重的后果,因为随着团队过度依赖机器输出却不了解其运作原理,人类判断的价值所在——那些使人类判断至关重要的技能——正在逐渐退化。推理能力的削弱、未经质疑的假设以及模型治理的恶化,不仅不会提升人工智能的效率,反而会加剧企业的脆弱性。

对人工智能能力的误解

各组织机构将更快的产出速度视为人工智能成功应用的标志。但速度是一个具有误导性的指标。许多团队所谓的“人工智能能力”越来越被误认为是“反应迅速、流畅”。但员工需要能够信任他们所获得的答案。 

如果输出结果听起来合理,许多人就会想当然地认为它是正确的。模型验证被忽略,假设也未经检验。于是,人们开始依赖人工智能来得出过去需要推理才能得出的结论。 

A 2025年研究报告 研究结果也支持这一模式。研究发现,“频繁使用人工智能工具与批判性思维能力之间存在显著的负相关关系,这种关系是由认知卸载增加所介导的”。此外,更熟悉人工智能界面、更年轻的参与者,其批判性思维得分低于年长的参与者。 

这一点也得到了以下研究结果的支持: 经济日报研究发现,人工智能的基本能力并非来源于掌握提示,而是来源于人类解读、质疑和理解机器输出结果的能力;人工智能的真正能力则来源于批判性思维、分析推理、创造性问题解决和情商。缺乏这些能力,用户就只能被动地接受人工智能内容,而无法成为积极的决策者。 

令人担忧的是,这种认知卸载现象已在神经层面得到证实。《经济时报》报道了麻省理工学院媒体实验室的一项研究,该研究发现,经常使用 ChatGPT 的参与者在尝试不使用人工智能辅助时,记忆力下降、表现分数降低,并且大脑活动也减弱。正如研究人员所说,“这种便利是以认知代价换来的。” 使用人工智能的学生在“所有层面:神经层面、语言层面和评分层面”的表现都更差。

这些结果有助于阐明人工智能捷径会损害哪些方面。它们削弱了专业人士日常工作中依赖的认知技能: 

  • 分析推理
  • 假设检验
  • 调试本能
  • 领域直觉

这项最新研究终于揭示了人工智能在人类层面上被忽视的缺陷。在风险评估、预测和资源分配等高风险决策中,这个问题日益凸显,因为这些决策都需要对情境有深刻的理解。人们对模型设计背后的逻辑理解越少,决策的不确定性就越高。 

为什么人机协作能力不足会造成企业级风险

新的能力差距削弱了治理能力

随着人工智能的广泛应用,许多组织内部出现了分歧。一方是质疑者,他们能够质疑、挑战、解读和改进输出结果;另一方是操作人员,他们接受结果并照单全收。

这种分歧远比大多数领导者意识到的要重要得多。有效的治理依赖于能够质疑模型假设(而不仅仅是答案)的团队。当了解系统运作方式的人越来越少时,一些细微的变化就可能被忽视,例如模型漂移的早期迹象和数据质量的变化。 

当团队不加质疑地接受人工智能的输出结果时,小错误会向下传递并迅速累积。过度依赖最终会成为单点故障。这就引出了一个问题:当一个组织外包判断的速度超过了其自身理解能力的提升速度时,会发生什么? 

这种治理上的缺失也阻碍了创新。无法有效运用人工智能的团队无法优化提示,也无法识别哪些洞见是全新的。创新活动集中在日益萎缩的专家群体中,从而降低了组织的适应能力。 

人类好奇心下降时,创新也会停滞不前。

人工智能可以加速和自动化许多任务,但它无法取代人类质疑和追问显而易见答案之外的本能。然而,这种与生俱来的人类本能正在逐渐消退。这被称为自主性衰退。 四阶段 人类将思维任务转移给机器的进展:

  1. 实验:出于好奇和便利,人们开始将一些小任务委托给人工智能。这既能增强自主性,又能提高效率。 
  2. 融合:人工智能融入日常工作。人们仍然具备基本技能,但与辅助工具一起工作时会感到有些不适应。 
  3. 依赖性:人工智能开始做出复杂的决策。用户变得自满,认知能力开始衰退,而这往往不易察觉。 
  4. 成瘾:也称为选择性盲视。人们离不开人工智能就无法有效运作,却仍然坚信自己拥有自主权。 

这种演变至关重要,因为人工智能会削弱我们识别知识不足以及思考解决新问题的新方案的能力。这些高阶技能需要不断练习。然而,人工智能带来的便利却让我们毫不费力地忽视了这些技能。 

组织效率会因此提高,但创造力会下降。研发依赖于人类的好奇心和怀疑精神,而当产出缺乏挑战时,这两者都会衰退。这种好奇心和自主性的丧失构成了一种战略风险。 

隐性知识的丧失会使组织变得脆弱。

在健康高效的团队中,专业知识通过同级之间的横向交流和资深员工向初级员工的纵向传授而流动。但当员工将问题转给人工智能而非人类时,这种指导循环就会减弱。初级员工不再能从专家的判断中学习和吸收,而资深员工也逐渐停止记录知识,因为人工智能填补了日常工作的空白。 

随着时间的推移,核心技术会逐渐流失。但这种风险需要时间才能显现,因此企业表面上看起来效率很高,但其根基却变得脆弱不堪。当模型失效或出现异常情况时,团队已不再具备足够的专业知识来自信地应对。

一篇发表于[日期缺失]的会计事务所案例研究 技能退化的恶性循环 研究发现,长期依赖认知自动化会导致人类专业技能显著下降。随着员工对自动化功能的信任度不断提高,他们对自身工作的认知、能力维护以及产出评估能力均有所减弱。研究人员指出,这种技能衰退往往被员工和管理者忽视,导致系统出现故障时团队措手不及。 

领导者必须采取哪些措施来恢复深度并防止过度依赖

企业无法阻止人工智能的普及,但可以增强员工的判断力,从而提高人工智能的可靠性。这首先要从重新定义整个组织的人工智能能力开始,因为反应迅速并不等同于熟练掌握。真正的能力包括理解模型的推理过程,以及知道何时需要干预机器的输出。  

为了理解这一点,员工需要接受培训,了解该模型如何简化情境,日常工作中如何出现偏差,以及自信满满的发言和逻辑严密的发言之间的区别。一旦奠定了这一基础,领导者就可以通过规范验证检查(例如)将批判性思维重新融入日常工作流程:

  • 这个模型基于什么假设?
  • 什么原因会导致这个输出结果错误?
  • 这与我们根据经验所了解到的情况相矛盾吗? 

这项关键分析只需几分钟,却能有效应对认知卸载危机,帮助控制员工和人工智能模型的输出。 

企业培训员工的最佳方式是使用实际系统。很多时候,培训都侧重于理想场景。但企业实际情况并非如此;他们的系统往往数据不完整、背景信息模糊不清,而且人为判断至关重要。 

例如,如果一家物流公司只用人工智能完美运行的干净数据集来培训其路线规划团队,那么员工们将完全没有准备。现实世界的情况,例如天气干扰,会导致人工智能模型发出错误的指令。如果员工从未见过系统出现不确定行为,他们就无法识别偏差的早期迹象,也不知道何时应该介入。在这种情况下,问题不在于模型本身,而在于培训不足。对员工进行人工智能方面的培训至关重要,这包括应对偏差场景、模糊输出、部分数据和故障等情况。这正是重建人类能力的关键所在。 

为了确保培训的实用性,企业领导者需要衡量的是人的能力,而不仅仅是系统结果。企业通常会追踪模型准确率或成本节约指标,但很少关注那些能够体现强有力的人工监督的行为。员工是否记录了他们信任模型输出的原因?他们是否上报了异常结果?这些可观察的行为能够反映出推理能力是在增强还是在减弱。当领导者认可并奖励那些通过深入推理改进提示或对人工智能输出提出合理质疑的员工时,他们就强化了那些能够增强人工智能部署韧性的习惯。 

人工智能的速度会不断提升,这一点毋庸置疑。问题在于,当人工智能出现偏差时,团队是否还能保持质疑、纠正和引导人工智能运行所需的技能。这才是真正区分优劣的关键所在。那些现在就投资于人类判断的组织,才能从人工智能中获得真正的价值,而不是脆弱的效率提升。其他组织则如同在沙滩上建造房屋。

Guillermo在生物化学、人工智能、空间生物学和创业领域拥有超过25年的经验,致力于为地球和太空中的人类福祉开发创新解决方案。他是Deep Space Biology的联合创始人兼首席运营官,该公司专注于创建一个用于安全太空探索的多组学BioSpace人工智能平台,并领导着人工智能战略。 尼苏姆作为一名企业战略顾问,他曾为NASA的太空生物学人工智能愿景做出贡献,并荣获创新奖。他拥有佐治亚理工学院人工智能硕士学位(荣誉毕业)。此外,作为一名大学教授,他曾教授机器学习、大数据和基因组学等课程。