人工智能
神经网络实现类人语言泛化

在不断演进的人工智能(AI)世界中,科学家们最近宣布了一个重要的里程碑。他们创造了一个神经网络,展现出类人语言泛化的能力。这一突破性发展不仅仅是一个步骤,而是跨越人类认知和AI能力之间差距的一大步。
当我们进一步深入AI领域时,AI系统理解和应用语言的能力,就像人类一样,在不同语境中变得至关重要。这一最新的成就为我们提供了一个美好的前景,展现出人类和机器之间的交互更加自然和直观的未来。
与现有模型的比较
AI领域并非没有能够处理和响应语言的模型。然而,这一最新发展的新颖之处在于其增强的语言泛化能力。当与现有的模型(如流行的聊天机器人所使用的模型)相比时,这个新神经网络展示出更高的能力,将新学到的词汇融入其现有的词汇表中,并在陌生的语境中使用它们。
虽然当今最好的AI模型(如ChatGPT)能够在许多对话场景中表现良好,但它们仍然在无缝集成新语言信息方面存在不足。这一新神经网络使我们更接近于一个现实,即机器能够像人类一样理解和交流,具有细微差别和适应性。
理解系统泛化
这一成就的核心是系统泛化的概念。它使人类能够轻松地适应和在多种语境中使用新获得的词汇。例如,一旦我们理解“photobomb”(偷拍)的含义,我们就能直觉地知道如何在不同的情况下使用它,无论是“两次偷拍”还是“在Zoom通话中偷拍”。同样,理解句子结构“猫追狗”使我们能够轻松地理解其逆向:“狗追猫”。
然而,这种人类固有的能力一直是AI的一个挑战性领域。传统的神经网络,作为人工智能研究的骨干,天然地不具备这种能力。它们难以将新词汇纳入其中,除非它们已经被大量的上下文样本训练过。这一局限性已经成为AI研究人员几十年来的争论话题,引发了关于神经网络是否真正反映人类认知过程的可行性讨论。
研究细节
为了更深入地了解神经网络的能力和语言泛化的潜力,进行了一项综合研究。这项研究不仅限于机器,还有25名人类参与者,他们作为AI性能的基准。
实验使用了一种伪语言,一套对参与者来说陌生的词汇。这确保了参与者真正地第一次学习这些术语,为测试泛化提供了一个干净的环境。这一伪语言包括两类词汇。‘原始’类别包括‘dax’、‘wif’和‘lug’等词汇,代表基本动作,如‘跳’或‘跳跃’。另一方面,更加抽象的‘函数’词汇,如‘blicket’、‘kiki’和‘fep’,规定了这些原始词汇的应用和组合规则,形成序列如‘三次跳’或‘向后跳’。
视觉元素也被融入训练过程中。每个原始词汇都与特定颜色的圆圈相关联。例如,红色圆圈可能代表‘dax’,而蓝色圆圈代表‘lug’。参与者被展示原始词汇和函数词汇的组合,伴随着彩色圆圈的图案,展示应用这些函数到原始词汇的结果。例如,短语‘dax fep’可能与三个红色圆圈配对,说明‘fep’是一个抽象规则,重复动作三次。
为了衡量参与者对语言和系统泛化的理解能力,他们被呈现复杂的原始词汇和函数词汇的组合。然后,他们被要求确定正确的圆圈颜色和数量,并将它们以适当的顺序排列。
影响和专家意见
这项研究的结果不仅是人工智能研究史册上的又一进展;它代表着一个范式的转变。神经网络的性能,接近人类的系统泛化,激发了学者和行业专家的兴奋和好奇。
约翰霍普金斯大学著名的认知科学家Paul Smolensky博士,专攻语言学,称这一成就为“训练网络系统泛化的突破”。他的声明凸显了这一成就的重要性。如果神经网络可以被训练以系统泛化,它们可能会彻底改变从聊天机器人到虚拟助手等众多应用。
然而,这一发展不仅仅是一项技术进步。它触及了人工智能社区长期存在的争论:神经网络是否真正可以作为人类认知的准确模型?近四十年来,这个问题一直让人工智能研究人员陷入争论。有些人相信神经网络模拟人类思维过程的潜力,而其他人由于其固有的局限性,尤其是在语言泛化领域,仍持怀疑态度。
这项研究带来了令人乐观的结果,倾向于支持神经网络可能反映人类认知的观点。纽约大学的认知计算科学家Brenden Lake,是这项研究的共同作者,他指出,神经网络过去可能存在困难,但通过正确的方法,它们可以被塑造以反映人类认知的方面。
向无缝人机协同的未来迈进
人工智能的发展,从其初期阶段到现在,始终伴随着不断的进化和突破。最近在训练神经网络系统泛化语言方面的成就,是人工智能无限潜力的又一证明。站在这一历史时刻,我们需要认识到这些进步的更广泛影响。我们正一步步走向一个未来,机器不仅能理解我们的语言,还能理解其细微差别和语境,促进人机交互更加自然和直观。
