Connect with us

人工智能

超越大型语言模型:大型行为模型如何塑造人工智能的未来

mm

人工智能(AI)已经走了很远,大型语言模型(LLMs)在自然语言处理方面展示了令人印象深刻的能力。这些模型改变了我们对人工智能理解和生成人类语言的看法。虽然它们在识别模式和综合书面知识方面非常出色,但它们难以模仿人类的学习和行为方式。随着人工智能的不断发展,我们正在看到从仅处理信息的模型转向能够学习、适应和像人类一样行为的模型的转变。

大型行为模型(LBMs)正在作为人工智能领域的新前沿出现。这些模型超越了语言,专注于复制人类与世界交互的方式。与主要在静态数据集上训练的LLMs不同,LBMs通过经验持续学习,能够在动态的现实世界场景中适应和推理。LBMs正在通过使机器能够像人类一样学习来塑造人工智能的未来。

为什么行为人工智能很重要

LLMs已经证明了其强大的能力,但其能力本质上与其训练数据相关。它们只能执行与其训练期间学习的模式相符的任务。虽然它们在静态任务中表现出色,但它们在需要实时决策或从经验中学习的动态环境中挣扎。

此外,LLMs主要专注于语言处理。它们无法处理非语言信息,例如视觉提示、身体感觉或社会交互,这些对于理解和对世界做出反应都是至关重要的。在需要多模式推理的场景中,例如解释复杂的视觉或社会背景,这个差距变得尤为明显。

人类另一方面,是终身学习者。从婴儿期开始,我们与环境互动,尝试新想法,并适应意外的情况。人类学习以其适应性和效率而独特。与机器不同,我们不需要经历每一种可能的情况才能做出决定。相反,我们从过去的经验中推断,结合感官输入,并预测结果。

行为人工智能旨在通过创建不仅可以处理语言数据,而且可以从交互中学习和成长,并且可以轻松适应新环境的系统来弥补这些差距,就像人类一样。这种方法将范式从“模型知道什么?”转变为“模型如何学习?”

什么是大型行为模型?

大型行为模型(LBMs)旨在超越简单地复制人类所说的话。它们专注于了解人类为什么和如何以某种方式行为。与依赖静态数据集的LLMs不同,LBMs通过与环境的持续交互实时学习。这种主动学习过程帮助它们像人类一样适应行为——通过试验、观察和调整。例如,一个孩子学习骑自行车,不仅仅是阅读说明或观看视频;他们与世界物理交互,跌倒,调整并再次尝试——这是LBMs旨在模仿的学习过程。

LBMs也超越了文本。它们可以处理广泛的数据,包括图像、声音和感官输入,使它们能够更全面地理解周围环境。这种解释和响应复杂、动态环境的能力使LBMs特别适用于需要适应性和上下文感知的应用。

LBMs的关键特征包括:

  1. 交互式学习:LBMs被训练为采取行动并接收反馈。这使它们能够从后果中学习,而不是从静态数据集中学习。
  2. 多模式理解:它们从多种来源处理信息,例如视觉、声音和物理交互,来构建对环境的整体理解。
  3. 适应性:LBMs可以实时更新其知识和策略。这使它们高度动态,适合不可预测的场景。

LBMs如何像人类一样学习

LBMs通过整合动态学习、多模式上下文理解和在不同领域的一般化来促进人类般的学习。

  1. 动态学习:人类不仅仅记住事实;我们适应新的情况。例如,一个孩子学习解决拼图,不仅仅是记住答案,还要认识模式并调整方法。LBMs旨在复制这个学习过程,使用反馈循环来完善知识,同时与世界交互。与其从静态数据学习,它们可以在遇到新情况时调整和改进其理解。例如,一个由LBM驱动的机器人可以通过探索来学习在一栋建筑中导航,而不是依赖预加载的地图。
  2. 多模式上下文理解:与仅限于处理文本的LLMs不同,人类无缝地整合视觉、声音、触觉和情感来以深刻的多维方式理解世界。LBMs旨在实现类似的多模式上下文理解,其中它们不仅可以理解口头命令,还可以识别手势、语调和面部表情。
  3. 跨领域的一般化:人类学习的一个标志是能够将知识应用于各个领域。例如,一个学习驾驶汽车的人可以快速将该知识转移到操作船只。传统人工智能面临的一个挑战是将知识转移到不同的领域。虽然LLMs可以为不同领域(如法律、医学或娱乐)生成文本,但它们在将知识应用于不同上下文时却苦苦挣扎。然而,LBMs被设计为跨领域的一般化知识。例如,一个被训练来帮助家庭琐事的LBM可以轻松地适应在工业环境中(如仓库)工作,通过与环境的交互来学习,而不是需要重新训练。

大型行为模型的实际应用

尽管LBMs仍然是一个相对较新的领域,但其潜力已经在实际应用中显现。例如,一家名为Lirio的公司使用LBM来分析行为数据并创建个性化的医疗保健建议。通过持续学习患者交互,Lirio的模型适应其方法以支持更好的治疗依从性和整体健康结果。例如,它可以识别可能错过药物的患者,并提供及时的、激励性的提醒以鼓励遵守。

在另一个创新案例中,丰田与MIT和哥伦比亚工程学院合作,探索使用LBMs进行机器人学习。他们的“扩散政策”方法允许机器人通过观察人类行为来获得新技能。这样使机器人能够更快、更高效地执行复杂任务,例如处理各种厨房物品。丰田计划在2024年底前将这一能力扩展到1000多个不同的任务,展示LBMs在动态、现实世界环境中的多功能性和适应性。

挑战和伦理考虑

虽然LBMs显示出巨大的潜力,但它们也带来了几个重要的挑战和伦理问题。一个关键问题是确保这些模型不会从训练数据中模仿有害行为。由于LBMs通过与环境的交互学习,因此存在风险,即它们可能无意中学习或复制偏见、刻板印象或不适当的行为。

另一个重要的担忧是隐私。LBMs模拟人类行为的能力,特别是在个人或敏感的背景下,引发了操纵或侵犯隐私的可能性。随着这些模型变得更加融入日常生活,确保它们尊重用户的自主权和保密性将至关重要。

这些问题凸显了制定明确的伦理指南和监管框架的迫切需要。适当的监督将有助于以负责任和透明的方式指导LBMs的开发,确保其部署造福社会而不损害信任或公平性。

结论

大型行为模型(LBMs)正在将人工智能引向新的方向。与传统模型不同,它们不仅处理信息,还像人类一样学习、适应和行为。这使它们在医疗保健和机器人等领域变得有用,在这些领域,灵活性和上下文至关重要。

但也存在挑战。LBMs可能会学习有害行为或侵犯隐私,如果处理不当。因此,明确的规则和谨慎的开发至关重要。

只要方法得当,LBMs就可以改变机器与世界交互的方式,使其比以往任何时候都更聪明、更有用。

Dr. Tehseen Zia 是 COMSATS University Islamabad 的终身副教授,拥有来自奥地利维也纳科技大学的人工智能博士学位。专攻人工智能、机器学习、数据科学和计算机视觉,他在著名的科学期刊上发表了重要贡献。 Dr. Tehseen 还作为首席调查员领导了各种工业项目,并担任人工智能顾问。