书评:Stephan Raaijmakers 所著《大型语言模型》
作为拥有超过十五本MIT Press Essential Knowledge系列书籍的人,我对每一本新书都怀着兴趣与谨慎:该系列通常提供深怑于理解的概述——但并非总是符合我预期的风格或深度。然而,对于Stephan Raaijmakers 所著的《大型语言模型》,作者却成就了难得之事:一本清晰、信息丰富且批判性平衡的书,使其跻身于我最为推荐的人工智能书籍之列。语言再构想:从人类艺术到计算 《大型语言模型》最突出的优势之一在于它如何重新定义“语言” 。这本书没有纯粹停留在哲学或文学视角,而是将语言视为一种计算现象——一个结构、统计模式和生成潜力的系统,现代神经架构可以对此加以利用。这种重构并非无的放矢:Raaijmakers 引导读者了解,在底层,大规模神经网络如何基于海量文本数据集中的统计规律性来编码、解析和生成文本——这是读者理解这些系统的一个微妙而强大的视角转变。这本书让人很容易理解,当通过这种计算视角来看待时,语言变成了机器可以建模的东西,而非神秘或难以捉摸之物。这种框架消除了大型语言模型(LLMs)的神秘感。Raaijmakers 没有将它们描绘成神秘的意义“理解者”,而是展示了它们如何近似处稐诋个词元、统计地建模句法和语义、并根据学习到的分布生成看似合理的语言输出。换句话说——它们并非以人类的方式“思考”;它们是统计性地计算。对麎许多读者——尤没有深厚数学或认知科学背景的读者——这是一个清晰且有益的观点。因此,这本书将围绕 LLMs 的普遍神秘感转化为更接地气、更易于理解的东西。从数据到行为:LLMS如何学习——以及如何对齐在确立了(计算意义上的)语言是什么之后,本书接着探讨模型如何学习。Raaijmakers 以通俗易懂的方式解释了当代 LLMs 是如何构建的(深度神经网络、注意力注ぺ意力 风格的架构),以及它们如何从单纯的模式匹配机器演变成更对齐、更可用的工具。这一演变的关键部分是使用人类反馈,即基于人类反馈的强化学习(RLHF)——一觍環人LLM 输出,并对模型进行微调以使其偏好被认为更有帮助、更安全或更符合人类价值观的输出的技术。本书(隐式和显式地)区分了基础阶段(在海量文本上进行预训练以学习统计规律性)和对齐阶段(人类判断在此塑造模型的行为)。这种区分至关重要:预训练赋予 LLM流畅性和通用知识;RLHF(或基于反馈的微调)则引导其走向期望的行为。在此过程中,Raaijmakers 没有掩盖复杂性或风险。他承认人类反馈和基于奖励的对齐并不完美:反馈中的偏见、不一致的人类判断、对奖励模型的过拟合,以及在新颖情境下的不可预测行为——这些都是合理的局限性。通过拒绝理想化RLHF,本书保持了可信度。LLMs 能做什么,不能做什么Raaijmakers 擅长阐述...