即时工程
你的人工智能比你想象的更强大

一组科学家刚刚发现了一些新发现,这在很大程度上颠覆了我们对人工智能能力的认知。你的模型不仅仅是处理信息,它们正在开发远远超出训练范围的复杂能力。为了解锁这些能力,我们需要改变与它们沟通的方式。
概念空间革命
还记得我们认为人工智能只是匹配模式吗? 新的研究 如今,他们通过绘制所谓的“概念空间”打破了人工智能学习的黑匣子。将人工智能学习描绘成一张多维地图,其中每个坐标代表一个不同的概念,例如颜色、形状或大小。通过观察人工智能模型在训练过程中如何在这个空间中移动,研究人员发现了一些意想不到的事情:人工智能系统不仅仅是记忆——它们以不同的速度构建对概念的复杂理解。
研究团队指出:“通过描述这一领域的学习动态,我们确定了概念学习速度如何受数据属性控制。”换句话说,某些概念的学习速度比其他概念更快,这取决于它们在训练数据中的突出程度。
有趣的是:当人工智能模型学习这些概念时,它们并非只是将它们存储为孤立的信息片段。它们实际上发展出了以我们从未明确教过的方式混合搭配这些概念的能力。这就像它们在构建自己的创意工具包——只是我们一直没有给它们正确的使用方法。
想想这对人工智能项目意味着什么。你正在使用的模型可能已经理解了你尚未发现的复杂概念组合。问题不在于它们能否做得更多,而在于如何让它们展现出真正的能力。
释放隐藏的力量
事情开始变得引人入胜了。研究人员设计了一个巧妙的实验,旨在揭示人工智能模型学习的一些基本原理。他们的实验设置看似简单:他们只用三类图像训练了一个人工智能模型:
- 大红色圆圈
- 大蓝色圆圈
- 小红圆圈
接下来是关键测试:模型能否画出一个蓝色的小圆圈?这不仅仅是画出一个新的形状,而是测试模型能否真正理解并以一种前所未有的方式将两个不同的概念(大小和颜色)结合起来。
他们的发现改变了我们对人工智能能力的看法。当他们使用正常提示要求画出“蓝色小圆圈”时,模型会遇到困难。然而,模型实际上可以画出蓝色小圆圈——只是我们问的方式不对。
研究人员发现了两种可以证明这一点的技术:
- “潜在干预” 这就像在模型的大脑里找到了一扇后门。他们没有使用常规的提示,而是直接调整了代表“蓝色”和“小”的内部信号。想象一下,如果给模型配上分别代表颜色和大小的刻度盘——他们发现,通过以特定的方式转动这些刻度盘,模型就能突然创造出之前看似不可能的东西。
- “过度提示” 他们不再只是简单地要求“蓝色”,而是对颜色值进行了极其具体的定义。这就像说“让它变成蓝色”和“让它精确地变成这个蓝色:RGB(0.3, 0.3, 0.7)”之间的区别。这种额外的精度帮助模型发挥了正常情况下隐藏的功能。
两种技术在模型训练的同一时间点开始起作用——大约 6,000 个训练步骤。与此同时,常规提示要么完全失败,要么需要 8,000 多个步骤才能起作用。这并非偶然——它在多次测试中始终如一地发生了。
这告诉我们一个深刻的道理:人工智能模型的能力发展分为两个不同的阶段。首先,它们实际上学会了如何在内部组合概念——这发生在大约第 6,000 步。但在第二阶段,它们学会了如何将这些内部能力与我们日常的提问方式联系起来。这就像模型在学习如何为我们翻译一门新语言之前,就已经熟练掌握了这门语言。
其影响十分重大。当我们认为某个模型无法完成某件事时,我们可能错了——它可能具备这种能力,但缺乏我们的提示与其能力之间的联系。这不仅适用于简单的形状和颜色——对于大型 AI 系统中更复杂的能力,也可能如此。
当研究人员使用真实数据测试这些想法时 CelebA 人脸数据集,他们发现了相同的模式。他们尝试让模型生成“戴帽子的女人”的图像——这是它在训练中从未见过的。常规提示失败了,但使用潜在干预措施后,模型确实可以创建这些图像。这种能力就在那里——只是无法通过常规手段获得。

Park 等人,哈佛大学和 NTT Research
关键要点
我们需要重新思考如何评估人工智能的能力。仅仅因为一个模型可能无法用标准提示做某事并不意味着它根本做不到。人工智能模型能做的事情和我们能让它们做的事情之间的差距可能比我们想象的要小——我们只需要在提问方面做得更好。
这一发现不仅仅是理论上的——它从根本上改变了我们对人工智能系统的思考方式。当一个模型在执行某项任务时似乎举步维艰时,我们或许需要思考,它究竟是真的缺乏能力,还是我们只是没有正确地利用它。对于开发者、研究人员和用户而言,这意味着我们需要在与人工智能的互动方式上发挥创造力——有时,我们需要的能力其实早已存在,只等着用正确的钥匙去解锁。