人工智能
能否通过培训来抵消人工智能使用的负面影响?

最近,Unite.ai 发表了一篇文章: ‘ChatGPT Might Be Draining Your Brain: Cognitive Debt in the AI Era‘。在这篇文章中,Alex McFarland 概述了麻省理工学院(MIT)的一项研究的发现,该研究显示,过度使用人工智能(AI)会导致批判性思维能力和判断力下降的令人担忧的趋势。还有许多其他研究支持这些发现,但现在需要回答的问题是:我们如何解决这个问题?
尽管过度依赖人工智能使用似乎会产生负面影响,但事实是,它在短期内不太可能消失。我们需要找到方法来利用人工智能,使企业能够在不损害员工脑力的情况下享受其带来的好处。
在本文中,我将探讨过度依赖人工智能可能带来的认知风险,这些风险对企业和员工意味着什么,我们可以采取什么样的培训和防护措施来让工人在人工智能的力量下获得最大效率,而不会导致精神能力下降。
人工智能使用的认知外包的新兴危险
如Alex的文章中所讨论的,麻省理工学院媒体实验室团队最近对54名志愿者进行了脑电图(EEG)实验,要求他们在三种条件下写SAT风格的文章:ChatGPT、搜索引擎或没有工具。仅使用大脑的作家表现出最丰富的执行控制区域的连接性。ChatGPT用户表现出最弱的参与度,当机器人被移除后,他们的成绩直线下降,这是作者认为的“认知债务”的证据。
依赖大型语言模型(LLM)的参与者难以回忆他们仅仅几天前“创作”的工作,因为这些信息从未通过努力的检索编码。麻省理工学院的一个受试者甚至无法引用48小时前写的草稿中的一个句子。
批判性思维的侵蚀
一项同行评审研究对英国666名成年人进行了调查,发现人工智能工具使用频率与批判性思维评估(Halpern批判性思维评估)成绩之间存在显著的负相关性。这种影响在17至25岁的人群中最为明显,并受到认知外包行为的调节,例如要求聊天机器人总结阅读材料而不是直接参与阅读。
同质化的创造力
一项关于人工智能对创新影响的研究要求团队使用有限的组件创造新玩具,其中一些团队被允许使用ChatGPT来集思广益。使用ChatGPT的团队每分钟产生的想法更多,但产生的独特概念却少了40%。一些团队甚至选择了相同的产品名称,这表明大型语言模型(LLM)将不同思维者引向其训练数据的狭窄中心。
错误的确定性和警惕性的减弱
批判性思维和判断力的下降尤其令人担忧,当人工智能仍然容易出现幻觉时。最近的一项调查显示,尽管对完全自治代理的信任在一年内从43%下降到27%,但64%的员工仍然将未经验证的模型文本粘贴到面向客户的文档中“以节省时间”。
社会的减速
这些影响不仅仅局限于人们在工作中的运作。有人认为,20世纪IQ成绩的稳步上升(弗林效应)已经停滞,甚至可能正在逆转,专家指出,数字化的普遍外包是主要原因之一。
对企业和员工的长期影响
慢性人工智能依赖类似于技术债务:每次员工在没有批判性审查的情况下接受机器人草稿时,他们都会将一小笔本金推迟到未来。当模型出现幻觉或监管机构要求原始数据时,这种隐藏的负债就会浮现出来,很少有人记得如何从头开始重新构建计算。
我们应该担心这种自我怀疑会削弱继任者队伍,留下一支薄弱的独立思考者队伍,就在代理系统需要更敏锐的监督的时候。曾经完全由人类创造力和知识支配的商业领域,如营销策略和翻译,现在越来越多地受到人工智能的辅助,甚至治理。这个问题可能会加剧。
创新拖累和“模板思维”
沃顿玩具实验暗示着一个未来,每次头脑风暴会议都从相同的自动补全建议开始。接受调查的早期投资者说,商业计划现在以相同的修辞风格到来,使真正的新颖性更难被发现。
监管风险
7月,英国标准机构宣布了世界上第一个人工智能审计标准,这是对一波人工智能幻觉污染法律文件的回应。无法证明人类审查的公司可能很快就会面临罚款和声誉损害。
动力下降
许多大学已经恢复了手写考试,因为调查表明89%的学生使用ChatGPT进行作业。教授们说,数字化转换立即提高了参与度,并揭示了学生在没有机器人帮助的情况下理解的薄弱。
类似的拖累威胁着企业的提升计划,如果学习者期望聊天机器人填补每一个知识空白。
适当的培训是否可以减轻外包效应?
防护措施的影响
一项沃顿领导的实地实验将990名高中数学学生分为三个组:无限制的GPT-4、GPT导师(仅提供提示)和无人工智能(对照组)。虽然无限制的用户解决了48%更多的练习问题,但他们在两天后的一场闭卷考试中成绩较差17%。
导师组实际上在练习问题中超越了拥有完全人工智能访问权限的组,但只与对照组相匹配,表明防护措施至少可以在某种程度上防止下降(即使人工智能似乎没有真正改善教育)。
教育作为缓冲
对英国666名成年人的研究发现,具有高级学位的参与者更有可能在接受人工智能答案之前进行交叉检查。访谈记录证实了这种模式:具有研究生学历的受访者“始终”验证信息的频率大约是那些只有中等教育水平的人的两倍,作者将其描述为“统计学上强大的”差异。
高等教育,作者得出结论,通过灌输批判性询问的习惯,减轻了认知外包的影响。
在监督下的积极证据
2025年7月的一项元分析汇集了31个课堂实验,发现人工智能在配备结构化指导时最有效。教师主导的成就测试场景带来了最大的学习收益,而无指导的知识测试条件几乎没有带来任何好处。作者指出,“引导式交互显著优于仅人工智能和无人工智能对照组”,强调了反思式提示和教师框架的价值。
防止大脑实际流失的培训策略
教授基于怀疑的AI识读能力
经理应该指导团队将大型语言模型(LLM)视为一个讨好型的熟人。成功的飞行测试将提示工程技术与心理检查表结合起来:什么是来源?哪个日期?相反的说法是否可能为真?
安排故意的“上载”
数字化戒断区的正式数字戒断区的流行度正在增长,这些区域是办公室内禁止使用笔记本电脑和手机的区域,以便员工可以在返回人工智能辅助任务之前“重置、充电和找到平衡”。
一些公司正在将这一理念扩展到“无科技星期五”,禁止星期五下午的视频通话和聊天应用程序,并在上午以模拟白板冲刺开始。团队然后在午餐后重新聚集,以验证他们的想法与大型语言模型(LLM)。经理报告说,这个仪式提高了想法的多样性,并在八周内将每周的学习日志条目提高了近25%。
将元认知融入工作流程
沃顿数学实验表明,在人工智能界面中插入反思式提示(“什么证据支持这一说法?”)可以提高保留率。GPT导师自动执行此操作,拒绝在学生表达自己的推理并将其与模型的提示进行比较之前显示任何答案。
设计为摩擦,而不是无摩擦
企业IT团队可以更多地考虑人工智能的使用和收益,并配置聊天助手以显示置信度评分、引用原始数据或呈现排名的替代方案,而不是单段文字,促使用户暂停并评估,而不是复制和粘贴。这些速度减慢的感觉很小,但恢复了用户和机器之间的基本认知握手。
结论
认知外包是更强大工具的必然阴影,但认知下降不必然会发生。愿意将人工智能与周密的防护措施、元认知提示和故意的上载文化相结合的组织可以享受更快的工作流程和更敏锐的思维。
忽视这些防护措施,债务将到期:创造力下降,问题解决能力脆弱,员工一旦提示窗口失败,就会僵住。公司今年可能做出的最聪明的投资可能不是购买另一个人工智能许可证,而是一个严格的计划,旨在让人类认知牢牢掌握方向盘。












