Connect with us

合成鸿沟

AI 如何改变我们的脑部(以及是否需要引起警惕)

mm

这个话题很有趣,让我从这个弗洛伊德式的前言开始。

人类智力的普遍自恋迄今为止已经受到三次致命的打击。第一次是当我们发现写作时,苏格拉底说:“因为你们的这个发现[写作]会在学习者的灵魂中制造忘却,因为他们不会使用自己的记忆;他们会相信外部的书面字符,不会自己记住”。第二次是当人们被介绍给 GPS 时,他们的空间定位能力下降了。最后一次打击可能是最具伤害性的:人类将思考的任务委托给了 AI。

MIT 媒体实验室的研究

关于 AI 如何改变我们的大脑的观点变得越来越响亮——也越来越令人兴奋。在 IBM 的文章《当 AI 为我们思考时,大脑变得更安静》中,我喜欢标题如何很好地表达了这个过程的本质。该文章讨论了 MIT 媒体实验室的一项研究,波士顿地区的学生参加了多次有无 AI 辅助的写作课程。研究团队在学生头上戴上 EEG 头盔,以跟踪他们的神经活动和反应,当他们使用 ChatGPT、一个谦逊的 Google 搜索引擎和没有任何工具时写作。

目标是看看大脑中会发生什么。该团队的目标是神经连接性,即大脑的不同部分在执行任务时如何相互作用。当学生使用 AI 时,他们的大脑在与记忆和思考相关的脑区之间显示出较低的连接性。当学生独自工作时,大脑中会有更多的跨区域通信。

但转折点出现在后来。在实验的最后阶段,学生被分成新的群体:那些使用 ChatGPT 的学生被要求在没有它的情况下继续写作,反之亦然。这揭示了一个有趣的观察。实验负责人纳塔利娅·科斯米娜(Nataliya Kosmina)解释说:“如果他们一开始使用 ChatGPT,然后被要求独自写作,他们的神经参与度比如果他们一开始没有使用工具,只是在后来使用 AI 时要低”。

据认为,这项 MIT 的研究提供了与斯帕罗(Sparrow)、刘(Liu)和韦格纳(Wegner)在他们的文章《谷歌对记忆的影响:拥有信息在指尖的认知后果》中讨论的内容类似的发现。该研究引入的一个概念是认知卸载,即人类的大脑记住的东西更少,因为信息可以很容易地在网上找到。该研究的总体结论是,大脑与技术发展出一种新的共生关系,委托互联网、驱动器和云来存储大量不需要记住的信息和数据集。虽然研究团队表达了担忧,但其他评论者认为,这只是在日益快速的世界中不可避免的认知适应。

这两项研究的共同点是担心人类能力的损害。虽然 2011 年的研究发现了一种依赖关系,即记忆机制自然地对不断变化的信息和技术格局做出反应,但 MIT 媒体实验室的研究结果却令人担忧。科斯米娜的实验表明,时机很重要:人类大脑越早接触到全能的 AI,就越难以发展正常的脑区交互。当 AI 执行学习中的繁重工作时,例如建立联系、实际编码和操作目标信息,我们还在学习吗?这是否仍然有效?我的意思是——学生们最终还是写了文章,技术上完成了工作。但对于 ChatGPT 组来说,个人投入和因此而产生的智力努力并没有像在没有 AI 的组中那样高。

你看,AI 的认知卸载有了一个更黑暗的转折。虽然谷歌可以让我们依赖它的记忆能力,但它不会夺走我们的解决问题的能力。谷歌可以替我记住,但它不能解决问题或批判性地评估信息。然而,AI,尤其是在今天的学生中,认知卸载太深以至于无益:AI 可以撰写报告、制作演示文稿等等。合作、批判性评估和信息检索技能几乎没有得到练习。

事情的另一面

2025 年的研究由 Gerlich “AI 工具在社会中的应用:对认知卸载和批判性思维的未来影响” 提出了一个熟悉的画面:频繁使用 AI 与深度思考和反思的参与度降低以及批判性思维能力的下降密切相关。

研究结果似乎表明,AI 工具会导致更大的认知卸载, 궁극上会降低批判性思维能力。研究中参与的用户过度依赖 AI,表现出对信息的批判性评估和反思性问题解决能力下降。Gerlich 说,结果应与 AI 的错误使用联系起来。该研究并没有明确指出 AI 使用是批判性思维和认知能力下降的唯一原因:相关性不等于因果性。Gerlich 警告说。

作为一名父亲,我怀疑 AI 会不可逆转地改变人类大脑的机制或真正损害我们的能力。然而,我相信孩子们需要在某种程度上被限制或保护他们对 AI 的使用。虽然我不能从儿子手中夺走他的电话,但我可以解释为什么老式的笔和纸解决问题比简单地让 AI 为你做更有益。

结论

为了以积极的方式结束,我寻找了一些组织心理学家和教育者的建议,帮助我们,成年人,保持高效,不被 AI 的易用性所腐蚀。

首先,AI 是你的才华横溢的实习生或初级同事,而不是你的替代者。

该文章 由 Rob Enderle 在 Tech News World 撰写,教导我们,即使在使用 AI 工具进行研究、草拟或执行许多琐碎的工作时,也必须保持精神存在。退化始于任务的被动委托和盲目依赖。要成为一个“积极”的编辑,并与 AI 为你塑造的内容进行交互。

其次,遵循 Vaughn Tan 规则:‘不要将你的主观价值判断外包给 AI,除非你有充分的理由这样做,在这种情况下,请确保理由明确说明’。该规则是基于学者 Vaughn Tan 的作品制定的,他是哈佛大学的博士,现任顾问、作者和工具制造商,目前正在研究 AI 如何影响世界教育。该规则意味着科学家所说的 意义构建活动 应该是专属于人类的。我们不应该让 AI 判断什么是好的,什么是坏的。

第三,也是我最喜欢的,我们不应该让 AI 做我们的工作。文章 《如何使用 AI 而不变得愚蠢》 引用了一条非常准确的建议:为了与 AI 共同成长、受益于它并进步,你需要保持在工作的中心,让 AI 只是稍微引导你并指出你的弱点。

当我写这篇文章时,很有诱惑力地让 AI 为我写点什么。但我相信,在一个与 AI 共存、保持人类本质的世界中,AI 不会取代人类。是否会发生这种情况取决于我们,取决于我们努力维护人类思维在机器面前的主导地位。

Ilya Romanov 是一位企业家和人工智能爱好者,拥有超过 15 年的营销经验,跨越了旅行、银行、电子商务、加密货币和人工智能等行业。这多样化的背景使他对不同业务的性质有了深刻的见解。在他的写作中,他专注于人工智能如何在商业中应用以及它如何改变我们周围的世界。