Connect with us

人工智能

逻辑的回归:神经符号AI如何遏制大型语言模型的幻觉

mm

多年来,我们一直在观察大型语言模型(LLMs)如何吸引我们的想象力。ChatGPT可以写电子邮件,Gemini可以提供答案,Llama可以支持广泛的应用程序。但是,隐藏在它们令人印象深刻的能力背后的,是一个令人不舒服的现实:这些模型一贯地以绝对的自信生产虚假信息。 一位律师提交了一份带有完全虚构的法律引用的简报。 一位教授被错误地指控为不当行为。 医疗系统根据虚构的证据做出建议。 我们称这些错误为幻觉,但它们指向了更深层次的问题。 它们暴露了仅仅依赖统计模式匹配而不是逻辑推理的系统的核心弱点。

大型语言模型幻觉:根源和解决方案

幻觉问题源于语言模型的工作原理。它们根据在训练期间学习的统计模式预测下一个词,每个预测都会影响下一个预测。这样就形成了一个链式反应,早期的错误会被放大。模型没有内部机制来检查其陈述是否为事实或遵循逻辑规则。它只是选择最可能的下一个词,这往往会导致听起来令人信服但完全虚假的响应。这不是一个可以轻易解决的bug;它源于模型的核心架构。
行业已经尝试通过不同的解决方案来解决这个问题。我们 检索 外部文档,以给模型更多的上下文。我们 微调 模型以获得更好的数据。我们通过仔细的 提示 添加安全防护措施。然而,这些方法都没有解决核心问题。它们是建立在一个依赖概率而不是理解真相的架构上的附加组件。随着我们向医疗、法律和金融等领域迈进,在这些领域中,错误会带来真正的后果,我们必须面对一个令人不舒服的现实:如果我们仅仅依赖神经网络来推理事实,我们就无法实现我们需要的可靠性。到2025年,许多 研究人员公司 已经认识到了这一现实,并将他们的重点转移到了从根本上新的方法上,而不是对现有模型进行小幅改进。

理解神经符号AI

神经符号AI将两个长期以来在人工智能中对立的传统结合在一起。神经网络擅长从数据中学习,识别模式和生成自然语言。符号系统则擅长应用明确的规则,进行逻辑推理和确保一致性。几十年来,这两种方法都在争夺主导地位。今天,有一个日益增长的认识,即未来在于结合它们的优势。到2025年,这种趋势正在 加速,这得益于迫切的实际需求和日益成熟的技术。
神经符号AI的工作原理是通过给AI系统一个明确的规则书。与其仅仅依赖神经网络来推理关系,如“如果下雨,外面的东西就会变湿”,系统会将其作为一个正式的规则来学习。系统理解逻辑原则的适用:如果A等于B,B等于C,那么A一定等于C。这些规则来自两个来源。人类直接输入它们,编码领域知识,如医学或法律。系统还通过一种称为 知识提取 的过程自动从其训练数据中提取规则。当神经组件和符号组件协同工作时,会发生一些强大的事情。神经网络提供了灵活性、模式识别和自然语言能力。符号层提供了确定性、可解释性和正确性保证。
考虑一下它在实践中的工作原理。一个使用纯神经网络的医疗系统可能会推荐治疗方案。一个神经符号版本会添加第二层。符号推理器检查推荐是否违反任何已知的医疗规则或与特定患者的信息相矛盾。如果神经组件建议了符号层认为是错误的东西,系统会 либо拒绝它, либо提醒人类。用户现在不仅仅有一个答案,还有一个解释。他们可以看到导致结论的逻辑链。这类透明度不再是可选的。随着AI法规的增长,解释性变得越来越具有法律和道德要求。欧盟已经 罚款 部署无法解释其决策的AI系统的公司。这种压力只会随着时间的推移而增加。

技术挑战和神经符号复兴

然而,仍然有一些重大的技术挑战限制了神经符号AI的发展和广泛采用。神经网络可以在专用硬件如GPU上高效运行,处理成千上万的并行计算。符号系统更喜欢传统的CPU和顺序操作。使这两种架构能够平滑地相互通信而不引入重大延迟或成本是一个复杂的任务。另一个障碍是创建符号系统所依赖的逻辑知识库的构建和维护。即使对于狭窄的、特定领域的应用程序,这也是一项耗时且昂贵的任务。编码所有必要的规则需要仔细的设计和专家输入。将这些系统扩展到与大型、通用语言模型相匹配的范围是更加困难的。尽管如此,克服这些障碍的激励因素是强烈的。随着对可靠、可解释和值得信赖的AI系统的需求增长,解决这些集成挑战已经成为研究人员和公司的首要任务。
该领域正在经历所谓的神经符号复兴。这并不是回到20世纪80年代和90年代,当时符号AI占据主导地位。相反,这是对两种方法的成熟整合,这两种方法现在都有明显的优势。现代可解释性研究、新的自动知识提取方法和更好的集成框架使这种趋势比以往任何时候都更为实用。2020年至2024年间进行的研究的系统性 审查 发现,大多数神经符号项目都专注于将学习和推理与逻辑推理相结合。这一研究的激增表明了真正的进展,而不仅仅是又一波炒作。

实际应用和平台

神经符号AI最有前途的 应用 出现在精度至关重要的领域。金融机构使用神经符号系统来确保交易建议符合法规和市场规则。医疗服务提供者部署这些系统来验证治疗建议是否符合医疗协议。律师事务所探索它们以进行合同分析,这些分析必须引用实际相关的案例法,而不是编造引用。谷歌通过 AlphaFold 演示了这种方法的力量,AlphaFold通过将神经网络与符号数学推理相结合来预测蛋白质结构。 AlphaGeometry 通过集成学习和形式逻辑来解决几何问题。这些突破使得一个事情变得明显:混合AI系统不仅仅是理论概念,而是解决实际问题的有效工具。
公司也正在为神经符号应用程序构建专门的平台。例如, AllegroGraph 8.0 专为将知识图谱与语言模型和形式推理相结合而设计。它允许用户将LLM输出建立在经过验证的、基于事实的知识之上。当模型尝试断言某些内容时,系统会将其与知识图谱中编码的结构化事实进行检查。如果出现幻觉,系统会检测到它并纠正模型。类似的平台和框架正在整个行业中出现,表明神经符号方法正在从学术研究转向实际部署。

现实的前景和AI的未来

保持对进展的现实态度是很重要的。神经符号AI不会在一夜之间取代通用语言模型。实际挑战是重大的。当前系统在狭窄的、规则明确的领域中效果最佳,而不是在开放式对话中。构建知识库的扩展性比简单地在大型互联网数据集上进行训练要差。系统需要比纯神经或纯符号方法更大的计算协调。可以预见的未来,会看到对话式AI继续由神经语言模型主导,而需要高可靠性的关键应用将越来越多地采用神经符号方法。这一分歧反映了一个基本的现实:不同的问题需要不同的解决方案,没有一种方法是普遍优越的。
这一转变的更深层次的见解是,AI领域正在学习质疑一些早期的假设。认为规模和数据可以解决任何AI问题的想法已经被证明是不完整的。认为纯神经方法可以在不进行修改的情况下处理从创作写作到医疗诊断的所有事情的想法可能过于自信。研究表明,真正的智能需要学习和推理。它需要模式识别和逻辑一致性。它需要灵活性和可靠性。下一个AI突破可能不会来自对现有架构的小幅调整。它可能会来自对混合系统的架构转变,这些系统结合了两种方法的优势。逻辑的回归不是怀旧;它是AI领域的成熟,终于认识到智能需要学习和推理。

Dr. Tehseen Zia 是 COMSATS University Islamabad 的终身副教授,拥有来自奥地利维也纳科技大学的人工智能博士学位。专攻人工智能、机器学习、数据科学和计算机视觉,他在著名的科学期刊上发表了重要贡献。 Dr. Tehseen 还作为首席调查员领导了各种工业项目,并担任人工智能顾问。