关注我们.

即时工程

你的人工智能比你想象的更强大

发布时间

 on

一组科学家刚刚发现了一些东西,这在很大程度上改变了我们对人工智能能力的认识。你的模型不仅仅是处理信息——它们正在开发远远超出训练范围的复杂能力。为了释放这些能力,我们需要改变与它们的交流方式。

概念空间革命

还记得我们认为人工智能只是匹配模式吗? 新的研究 现在已经通过绘制所谓的“概念空间”打开了人工智能学习的黑匣子。将人工智能学习描绘成一个多维地图,其中每个坐标代表一个不同的概念——例如颜色、形状或大小。通过观察人工智能模型在训练过程中如何穿过这个空间,研究人员发现了一些意想不到的事情:人工智能系统不仅仅是记忆——它们以不同的速度建立对概念的复杂理解。

研究团队指出:“通过描述这一领域的学习动态,我们确定了概念学习速度如何受数据属性控制。”换句话说,某些概念的学习速度比其他概念更快,这取决于它们在训练数据中的突出程度。

有趣的是:当人工智能模型学习这些概念时,它们不会将它们存储为孤立的信息片段。它们实际上会发展出以我们从未明确教过的方式混合和搭配这些概念的能力。这就像它们在构建自己的创意工具包——只是我们没有给它们正确的使用说明。

想想这对 AI 项目意味着什么。你正在使用的模型可能已经理解了你尚未发现的复杂概念组合。问题不在于它们能否做更多,而在于如何让它们向你展示它们真正的能力。

释放隐藏的力量

事情开始变得有趣了。研究人员设计了一个巧妙的实验,以揭示人工智能模型如何学习的一些基本原理。他们的设置看似简单:他们只用三种类型的图像训练人工智能模型:

  • 大红色圆圈
  • 大蓝色圆圈
  • 小红圆圈

接下来是关键测试:模型能否画出一个小蓝圆圈?这不仅仅是画出一个新的形状,而是模型是否能够真正理解并以前所未有的方式将两个不同的概念(大小和颜色)结合起来。

他们的发现改变了我们对人工智能能力的看法。当他们使用正常提示要求画出“蓝色小圆圈”时,模型会遇到困难。然而,模型实际上可以画出蓝色小圆圈——只是我们问的方式不对。

研究人员发现了两种可以证明这一点的技术:

  1. “潜在干预” – 这就像找到了进入模型大脑的后门。他们没有使用常规提示,而是直接调整了代表“蓝色”和“小”的内部信号。想象一下,颜色和尺寸有单独的刻度盘——他们发现,通过以特定方式转动这些刻度盘,模型可以突然产生之前看似不可能的东西。
  2. “过度提示” – 他们不再只是简单地要求“蓝色”,而是对颜色值进行了非常具体的说明。这就像说“将其设为蓝色”与说“将其设为这种蓝色色调:RGB(0.3, 0.3, 0.7)”之间的区别。这种额外的精度帮助模型访问在正常条件下隐藏的功能。

两种技术在模型训练的同一时间点开始发挥作用——大约 6,000 个训练步骤。与此同时,常规提示要么完全失败,要么需要 8,000 多个步骤才能起作用。这并非偶然——它在多次测试中始终如一地发生。

这告诉我们一些深刻的道理:人工智能模型在两个不同的阶段发展能力。首先,它们实际上学会了如何在内部结合概念——这是在第 6,000 步左右发生的事情。但还有第二个阶段,它们学习如何将这些内部能力与我们正常的询问方式联系起来。这就像模型在学习如何为我们翻译一门新语言之前,先熟练掌握了这门语言。

其影响十分重大。当我们认为某个模型无法完成某件事时,我们可能错了——它可能具备这种能力,但缺乏我们的提示与其能力之间的联系。这不仅适用于简单的形状和颜色——对于大型 AI 系统中更复杂的能力,也可能如此。

当研究人员使用真实数据测试这些想法时 CelebA 人脸数据集,他们发现了相同的模式。他们尝试让模型生成“戴帽子的女人”的图像——这是它在训练中没有见过的。常规提示失败了,但使用潜在干预措施表明模型实际上可以创建这些图像。这种能力是存在的——只是无法通过正常方式获得。

Park 等人,哈佛大学和 NTT Research

关键要点

我们需要重新思考如何评估人工智能的能力。仅仅因为一个模型可能无法用标准提示做某事并不意味着它根本做不到。人工智能模型能做的事情和我们能让它们做的事情之间的差距可能比我们想象的要小——我们只需要在提问方面做得更好。

这一发现不仅仅是理论上的——它从根本上改变了我们对人工智能系统的看法。当一个模型似乎在完成一项任务时,我们可能需要问自己,它是否真的缺乏这种能力,或者我们只是没有正确地使用它。对于开发人员、研究人员和用户来说,这意味着我们要创造性地与人工智能互动——有时我们需要的能力已经存在,只是等待正确的钥匙来解锁它。

Alex McFarland 是一位人工智能记者和作家,致力于探索人工智能的最新发展。他与全球众多人工智能初创公司和出版物合作。