人工智能
神经网络实现类人语言泛化

在不断发展的人工智能 (AI) 领域,科学家们最近迎来了一个重要的里程碑。他们构建了一个神经网络,其语言泛化能力堪比人类。这一突破性进展不仅是迈出的一步,更是弥合人类认知与人工智能能力之间差距的一大步。
随着我们进一步进入人工智能领域,这些系统像人类一样在不同环境中理解和应用语言的能力变得至关重要。 最近的这一成就为我们提供了一个充满希望的未来,人与机器之间的交互感觉比以往任何时候都更加有机和直观。
与现有型号的比较
人工智能世界对能够处理和响应语言的模型并不陌生。 然而,这一最新发展的新颖之处在于其增强的语言泛化能力。 当与已建立的模型(例如流行聊天机器人的底层模型)进行比较时,这种新的神经网络表现出了卓越的能力,可以将新学到的单词折叠到现有的词典中,并在不熟悉的上下文中使用它们。
虽然当今最优秀的人工智能模型(例如 ChatGPT)在许多对话场景中都能保持领先,但在无缝整合新语言信息方面仍存在不足。而这种新的神经网络则让我们更接近一个现实:机器能够理解并以人类的细微差别和适应性进行交流。
理解系统泛化
这一成就的核心在于系统概括的概念。正是它使人类能够轻松地适应并在不同的情境中使用新习得的词汇。例如,一旦我们理解了“photobomb”(照片炸弹)这个词,我们就会本能地知道如何在各种情况下使用它,无论是“两次抢镜”还是“Zoom 会议期间抢镜”。同样,理解“猫追狗”这样的句子结构,我们就能轻松地理解它的反义词:“狗追猫”。
然而,这种人类固有的能力一直是人工智能面临的挑战。传统的神经网络,作为人工智能研究的支柱,并不具备这种能力。除非使用多个上下文中该词的样本进行广泛的训练,否则它们很难理解新词的含义。几十年来,这种局限性一直是人工智能研究人员争论的焦点,引发了关于神经网络能否真实反映人类认知过程的讨论。
详细研究
为了更深入地研究神经网络的功能及其语言泛化的潜力, 综合学习 进行了这项研究。这项研究并不局限于机器;25 名人类参与者也参与其中,作为人工智能表现的基准。
实验使用了一种伪语言,即一组参与者不熟悉的、构建的词汇。这确保参与者确实是第一次学习这些术语,从而为测试泛化能力提供了一个全新的起点。这种伪语言包含两类不同的词汇。“原始”类别的词汇包括“dax”、“wif”和“lug”,它们象征着类似于“跳跃”或“跳”的基本动作。另一方面,更抽象的“功能”词汇,例如“blicket”、“kiki”和“fep”,为这些原始词汇的应用和组合制定了规则,从而形成了诸如“跳三次”或“向后跳”之类的序列。
训练过程中还引入了视觉元素。每个原始词都与一个特定颜色的圆圈相关联。例如,红色圆圈可能代表“dax”,而蓝色圆圈则代表“lug”。然后,参与者会看到原始词和功能词的组合,并伴有彩色圆圈图案,这些图案描绘了将功能应用于原始词的结果。例如,将短语“dax fep”与三个红色圆圈配对,说明“fep”是重复动作三次的抽象规则。
为了衡量参与者的理解和系统概括能力,向他们展示了原始词和功能词的复杂组合。 然后,他们的任务是确定圆圈的正确颜色和数量,并进一步按适当的顺序排列它们。
影响和专家意见
这项研究的成果不仅仅是人工智能研究史上的又一里程碑,更代表着一种范式转变。该神经网络的性能与人类的系统泛化能力高度相似,这引起了学者和行业专家的兴奋和好奇。
约翰霍普金斯大学语言专业的著名认知科学家保罗·斯莫伦斯基博士称赞这是“训练网络系统化能力的突破”。 他的声明强调了这一成就的重要性。 如果可以训练神经网络进行系统泛化,那么它们就有可能彻底改变从聊天机器人到虚拟助手等众多应用程序。
然而,这种发展不仅仅是技术进步。 它触及了人工智能界长期存在的争论:神经网络真的可以作为人类认知的准确模型吗? 近四十年来,这个问题一直让人工智能研究人员争论不休。 虽然一些人相信神经网络具有模拟类人思维过程的潜力,但其他人仍然对其固有的局限性持怀疑态度,尤其是在语言泛化领域。
这项研究的结果很有希望,使人们更加乐观。 正如纽约大学认知计算科学家、该研究的合著者布伦登·莱克(Brenden Lake)指出的那样,神经网络过去可能一直举步维艰,但通过正确的方法,它们确实可以被塑造来反映人类认知的各个方面。
迈向人机无缝协同的未来
人工智能从萌芽阶段到如今的辉煌,一路走来,不断演进和突破。最近,在训练神经网络系统地泛化语言方面取得的成就,再次证明了人工智能的无限潜力。值此关键时刻,我们必须认识到这些进步的广泛影响。我们正在一步步接近一个未来:机器不仅能理解我们的语言,还能掌握其中的细微差别和语境,从而实现更加无缝、直观的人机交互。












