人工智能
为什么人工智能仍然无法像人类一样掌握基本物理学

人工智能可以击败国际象棋世界冠军,生成惊人的艺术作品,并编写需要人类数天才能完成的代码。然而,当涉及理解为什么球会向下掉而不是向上,或者预测当你把一个玻璃杯从桌子上推下去会发生什么时,人工智能系统往往会以令一个小孩子感到惊讶的方式挣扎。这一差距揭示了当前人工智能形式的关键局限性。虽然人工智能在模式匹配和统计分析方面表现出色,但它缺乏人类从出生时就自然发展出的对物理世界的深刻理解。
理解的幻觉
现代人工智能系统,特别是大型语言模型,制造了对物理学的理解幻觉。它们可以解决复杂的方程,解释热力学原理,甚至帮助设计实验。然而,这种明显的能力往往隐藏了根本的局限性。
最近的研究表明,虽然人工智能工具在理论问题上表现出色,但它们在实际问题解决方面却挣扎,特别是在需要深刻概念理解和复杂计算的领域。这种差异在人工智能系统遇到需要真正的物理推理而不是模式识别的场景时变得尤为明显。
考虑一个简单的例子:预测弹跳球的轨迹。一个人类孩子可以快速学会预测球将落在哪里,基于通过与物体的无数次交互发展起来的直觉物理学。人工智能系统,尽管可以访问精确的数学模型,但在现实世界场景中,多个物理原理适用时,往往无法做出准确的预测。
人类如何自然地学习物理学
人类对物理学的理解始于我们还不能走路的时候。婴儿们会对违反基本物理定律的物体感到惊讶,这表明他们具有物理推理的天生基础。这种早期的直觉物理学是通过与物理世界的不断交互发展起来的。
当一个幼儿掉落一个玩具时,他们正在进行物理实验。他们通过直接经验学习关于重力、动量和因果关系。这种体现学习创造了强大的精神模型,可以推广到新的情况。
人类还具有令人惊叹的能力,可以在脑海中模拟物理学。我们可以想象如果我们倾斜一个水杯会发生什么,或者想象一个抛出的物体的路径。这种脑海模拟使我们能够超越复杂计算来推理物理学。
模式识别陷阱
人工智能系统从根本上与人类不同地解决物理问题。它们依赖于对大量数据的模式识别,而不是建立关于世界如何运作的概念模型。这种方法既有优势也有关键的弱点。
当遇到与其训练数据相匹配的熟悉问题时,人工智能系统可能看起来非常有能力。它们可以解决教科书上的物理问题,甚至可以在复杂的科学数据中发现新的模式。然而,这种成功往往是脆弱的,当面对新情况时就会失败。
核心问题是人工智能系统学习相关性而不一定理解因果关系。它们可能会学习某些数学关系可以预测某些结果,而不理解为什么这些关系存在或者何时会崩溃。
组合推理的挑战
当前人工智能系统的一个关键局限性是它们在所谓的“组合推理”方面的困难。人类自然理解复杂的物理现象是由更简单的原理相互作用的结果。我们可以将复杂的情况分解为组成部分,并推理它们如何相互作用。
人工智能系统经常难以理解这种分层结构。它们可能擅长识别特定的模式,但却难以理解基本物理原理如何组合成更复杂的行为。这种局限性在涉及多个相互作用的物体或系统的场景中尤其明显。
例如,虽然人工智能可能能够准确地解决孤立的关于摩擦、重力和动量的问题,但它可能难以预测当所有三个因素以新颖的配置相互作用时会发生什么。
体现问题
人类的物理学直觉与我们对世界的身体体验密切相关。我们通过肌肉理解力的概念,通过内耳理解平衡,通过运动理解动量。这种体现的理解为物理推理提供了丰富的基础。
当前的人工智能系统缺乏这种体现的体验。它们将物理学处理为抽象的数学关系,而不是作为生活经验。这种身体体验的缺乏可能是人工智能系统经常难以掌握小孩子轻松掌握的简单物理推理任务的原因之一。
机器人和体现人工智能的研究正在解决这一局限性,但我们仍然远远没有达到能够匹配人类通过与世界一生身体交互而发展出的物理直觉的系统。
统计学遇上现实
人工智能系统擅长在大型数据集中找到统计模式,但物理学不仅仅是关于统计学。物理定律代表了关于世界如何运作的基本真理,而不仅仅是观察到的相关性。当处理边缘情况或新颖情况时,这种区别变得至关重要。
最近的研究表明,人工智能通常难以认识到它们何时犯错,特别是在需要深刻概念理解的领域。这种对其局限性的缺乏自我意识可能会导致物理场景中自信但错误的预测。
模拟差距
人类自然地对物理场景进行脑海模拟。我们可以想象掉落一个物体,并预测其轨迹,或者想象水通过管道的流动。这些精神模型使我们能够超越记忆的公式来推理物理学。
虽然人工智能系统可以运行复杂的物理模拟,但它们经常难以将这些模拟与直觉理解联系起来。它们可能会准确地模拟系统的数学行为,而不理解为什么会出现这种行为,或者在不同的条件下如何改变。
上下文问题
人类的物理直觉具有令人惊叹的灵活性和上下文意识。我们会自动根据情况调整我们的期望。我们知道物体在水中和空气中的行为不同,或者相同的原理在不同尺度下以不同的方式适用。
人工智能系统经常难以进行这种上下文推理。它们可能会以不恰当的方式应用学习到的模式,或者无法识别出上下文何时改变了相关的物理原理。这种僵化限制了它们处理人类轻松应对的丰富、多样化的物理场景的能力。
挑战不仅仅是技术上的,也是概念上的。教导人工智能系统理解上下文需要的不仅仅是更好的算法,还需要我们对机器理解的根本性进步。
超越模式匹配
人工智能在物理理解方面的局限性指向了关于智能和理解的性质的更深层次的问题。真正的物理直觉似乎需要的不仅仅是模式识别和统计分析。
人类开发了可以被称为“因果模型”的物理世界模型。我们不仅理解发生了什么,还理解为什么会发生以及在什么条件下会发生。这种因果理解使我们能够推广到新的情况,并对我们从未遇到过的场景做出预测。
当前的人工智能系统尽管具有令人印象深刻的能力,但主要是通过复杂的模式匹配来运作。它们缺乏似乎对于强大的物理推理至关重要的深层次因果模型。
未来方向
研究人员正在积极地探索几种方法来弥合人工智能计算和类似人类的物理理解之间的差距。这些方法包括开发更复杂的推理模型,融入体现学习,以及创建可以构建和测试物理世界因果模型的系统。
最近的进展包括受发展心理学启发的深度学习系统,可以学习物理世界的基本规则,例如物体的实体性和持续性。虽然这些系统很有前景,但它们仍然远远不及人类的直觉物理学。真正的挑战不是开发技术解决方案,而是解决关于智能、理解和知识本质的根本性问题。
结论
虽然人工智能在许多领域继续快速进步,但基本的物理理解仍然是一个重大挑战。人类直觉和人工智能能力在这一领域之间的差距揭示了生物系统和人工系统处理信息的根本性差异。
朝着开发真正理解物理学的类似人类的人工智能系统的旅程可能需要我们对机器学习和人工智能的根本性突破。到那时为止,一个三岁的孩子仍然可以自信地预测弹跳球的轨迹,这远远超过了我们最先进的人工智能系统在这一基本方面的能力。












