关注我们.

人工智能

为什么人工智能仍然无法像人类一样掌握基础物理学

mm

人工智能可以击败国际象棋世界冠军,创作出令人惊叹的艺术作品,并编写人类需要数天才能完成的代码。然而,当涉及到理解球为什么会向下而不是向上,或者预测将玻璃杯从桌子上推下去会发生什么时,人工智能系统往往会遇到连小孩子都意想不到的困难。人工智能的计算能力与其无法理解基本物理直觉之间的差距,揭示了当前人工智能的关键局限性。虽然人工智能擅长模式匹配和统计分析,但它缺乏对人类从出生起自然形成的物理世界的深刻理解。

理解的错觉

现代人工智能系统,尤其是大型语言模型,给人一种理解物理的错觉。它们可以解复杂的方程,解释热力学原理,甚至帮助设计实验。然而,这种表面上的能力往往隐藏着根本性的局限性。

最近的研究表明,尽管人工智能工具在理论问题上表现出色,但在实际问题解决方面却举步维艰,尤其是在需要深入概念理解和复杂计算的领域。当人工智能系统遇到需要真正物理推理而非模式识别的场景时,这种差异尤为明显。

举一个简单的例子:预测球的弹跳轨迹。一个孩子很快就能学会根据以下信息预测球的落点: 直觉物理学 人工智能系统是通过与物体无数次的交互而发展起来的。尽管人工智能系统拥有精确的数学模型,但在应用多种物理原理的现实场景中,它往往无法做出准确的预测。

人类如何自然地学习物理

人类对物理的理解甚至在学会走路之前就开始了。当物体似乎违反基本的物理定律时,婴儿会表现出惊讶,这表明物理推理具有与生俱来的基础。这种早期的直觉物理能力是通过与物理世界的不断互动而发展起来的。

当幼儿掉落玩具时,他们实际上是在进行物理实验。他们通过直接体验来学习重力、动量以及因果关系。这种具身学习能够构建强大的心智模型,从而概括新的情境。

人类还拥有非凡的心理模拟物理现象的能力。我们可以想象倾斜一杯水会发生什么,或者想象一个物体被抛出的路径。这种心理模拟使我们能够无需复杂的计算就能预测结果。

模式识别陷阱

人工智能系统处理物理问题的方式与人类有着根本的不同。它们依赖于海量数据集的模式识别,而不是构建世界运作方式的概念模型。这种方法既有优势,也有致命的弱点。

当遇到与其训练数据相匹配的熟悉问题时,人工智能系统会显得非常出色。它们可以解决教科书上的物理问题,甚至在复杂的科学数据中发现新的模式。然而,这种成功往往很脆弱,在面对新情况时会失败。

核心问题在于,人工智能系统学习相关性时,并不一定理解因果关系。它们可能会学习某些数学关系预测某些结果,但却不理解这些关系为何存在,或者何时会失效。

组合推理的挑战

当前人工智能系统的主要局限性之一是难以进行研究人员所谓的“组合推理”。人类天生理解复杂的物理现象是由简单原理相互作用产生的。我们可以将复杂的情况分解成几个组成部分,并推理它们如何相互作用。

人工智能系统常常难以理解这种层级结构。它们或许擅长识别特定模式,但却无法理解基本物理原理如何组合起来,从而产生更复杂的行为。这种局限性在涉及多个交互对象或系统的场景中尤为明显。

例如,虽然人工智能可以准确地解决有关摩擦、重力和动量的孤立问题,但它可能很难预测当这三个因素在一种新的配置中相互作用时会发生什么。

具身化问题

人类的物理直觉与我们对世界的物理体验息息相关。我们通过肌肉理解力和阻力等概念,通过内耳理解平衡,通过运动理解动量。这种具身理解为物理推理提供了丰富的基础。

目前的人工智能系统缺乏这种具身体验。它们将物理视为抽象的数学关系,而非鲜活的体验。这种缺乏实体化体验的现象,或许是人工智能系统在处理看似简单、幼儿却能轻松掌握的物理推理任务时常常遇到困难的原因之一。

机器人技术和具身人工智能的研究开始解决这一限制,但我们距离能够匹配人类通过一生与世界的身体互动而发展出来的物理直觉的系统还很远。

当统计数据遇到现实

人工智能系统擅长在海量数据集中发现统计模式,但物理学并非仅仅关注统计学。物理定律代表着世界运作的基本真理,而不仅仅是观察到的相关性。在处理极端情况或新奇情况时,这种区别至关重要。

最近的研究表明,人工智能通常难以识别自身的错误,尤其是在需要深度概念理解的领域。这种对自身局限性缺乏自我认知的情况,可能会导致在实际场景中做出自信但错误的预测。

模拟差距

人类天生就会在脑海中模拟物理场景。我们可以想象物体掉落的情景并预测其轨迹,或者想象水流过管道的场景。这些心智模型使我们能够以超越记忆公式的方式推理物​​理现象。

虽然人工智能系统可以运行复杂的物理模拟,但它们往往难以将这些模拟与直觉理解联系起来。它们或许能够准确地模拟系统的数学行为,但却无法理解这种行为发生的原因,也无法理解它在不同条件下会如何变化。

上下文问题

人类的物理直觉极其灵活,且能感知环境变化。我们会根据具体情况自动调整预期。我们知道物体在水中和在空气中的行为方式不同,同样的原理在不同尺度下的适用性也不同。

人工智能系统常常难以进行这种情境推理。它们可能会不恰当地运用已学习到的模式,或者无法识别情境何时改变了相关的物理原理。这种缺乏灵活性限制了它们处理人类轻松应对的丰富多样的物理场景的能力。

挑战不仅在于技术,更在于概念。教会人工智能系统理解语境,需要的不仅仅是更优秀的算法,更需要我们在机器理解方法上取得根本性的进步。

超越模式匹配

当前人工智能在物理理解方面的局限性,指向了关于智能和理解本质的更深层次的问题。真正的物理直觉似乎需要的不仅仅是模式识别和统计分析。

人类 开发 我们可以称之为物理世界的“因果模型”。我们不仅了解发生了什么,还了解它为什么会发生以及在什么条件下发生。这种因果理解使我们能够推广到新的情况,并对我们从未遇到过的情景做出预测。

当前的人工智能系统尽管功能强大,但主要依靠复杂的模式匹配来运作。它们缺乏对稳健物理推理至关重要的深层因果模型。

未来发展方向

研究人员正在积极研究多种方法来弥合人工智能计算与类人物理理解之间的差距。这些方法包括开发更复杂的推理模型,并结合 具身学习并创建能够构建和 测试因果模型 物理世界。

最近的 进步 包括受发展心理学启发的深度学习系统,它们能够学习物理世界的基本规则,例如物体的坚固性和持久性。尽管这些系统前景光明,但它们与人类直觉物理学相比仍相差甚远。真正的挑战并非在于开发技术解决方案,而是在于解决关于智能、理解以及知识本质的根本问题。

底线

尽管人工智能在许多领域持续快速发展,但基础物理学理解仍然是一项重大挑战。人类直觉与人工智能在这一领域的能力之间的差距,揭示了生物系统与人工系统在处理世界信息方式上的根本差异。

要让人工智能系统真正像人类一样理解物理,很可能需要在机器学习和人工智能领域取得根本性的突破。在此之前,一个三岁小孩自信地预测弹跳球落地位置的能力,在智能的这一基本层面上,仍然领先于我们最先进的人工智能系统。

Tehseen Zia 博士是伊斯兰堡 COMSATS 大学的终身副教授,拥有奥地利维也纳科技大学的人工智能博士学位。 他专注于人工智能、机器学习、数据科学和计算机视觉,在著名科学期刊上发表论文,做出了重大贡献。 Tehseen 博士还作为首席研究员领导了多个工业项目,并担任人工智能顾问。