Connect with us

AI 入门 101

机制可解释性和透明AI的未来

mm

人工智能正在改变全球经济的每个领域。从 金融医疗保健物流教育国家安全,大型语言模型(LLM)和其他基础模型正在深度融入业务运营和决策过程中。这些系统是在大量数据集上训练的,并具有令人惊叹的自然语言处理、代码生成、数据合成和战略规划能力。然而,尽管它们有这么多用途,这些模型仍然大多是不透明的。甚至它们的创造者通常也不能完全理解它们如何得出特定的输出。这一缺乏透明度带来了严重的风险。

当AI系统生成错误信息、表现出不可预测的行为或采取反映隐藏或不一致的目标的行动时,无法解释或审计这些行为就成为一个重大责任。在高风险环境中,例如临床诊断、信用风险评估或自主防御系统,未解释的AI行为可能带来严重的后果。这就是机制可解释性发挥作用的地方。

什么是机制可解释性?

机制可解释性 是人工智能研究的一个子领域,专注于揭示神经网络的基本工作原理。与提供代理洞察的表面层次可解释性方法(例如,突出哪些词影响了决策)不同,机制可解释性更深入地探索。它旨在识别特定内部电路、神经元和权重连接,这些电路、神经元和权重连接导致模型内部的特定行为或表示。

这种方法的雄心壮志是超越将神经网络视为 黑盒,而是将它们分析为具有可发现组件的工程系统。可以将其视为逆向工程大脑:不仅发现做出了什么决定,还发现了如何在内部计算这些决定。最终目标是使神经网络像传统软件系统一样可解释和可审计。

与依赖后验近似的其他可解释性方法不同,机制可解释性是关于理解模型的实际计算。这使研究人员能够:

  • 识别哪些神经元或电路负责特定的功能或概念。
  • 理解如何形成抽象表示。
  • 检测和缓解不想要的行为,例如偏见、错误信息或操纵倾向。
  • 指导未来的模型设计朝着更透明、更安全的架构方向发展。

OpenAI的突破:稀疏电路和透明架构

2025年末,OpenAI推出了一个新的实验性大型语言模型,该模型围绕权重稀疏性原则构建。传统的LLM是密集连接的,这意味着每个层中的每个神经元可能与成千上万个其他神经元相互作用。虽然这种结构对于训练和性能是有效的,但它导致内部表示高度交织。结果,概念遍布多个神经元,个别神经元可能代表多个无关的想法——一种称为多义性的现象。

OpenAI的方法走了一条完全不同的道路。通过设计一个模型,其中每个神经元仅连接到其他几个神经元(所谓的“权重稀疏变换器”),他们迫使模型发展出更离散和局部的电路。这些稀疏架构以牺牲一些性能为代价,换来了大大提高的可解释性。

在实践中,OpenAI的稀疏模型比顶级系统(如GPT-5)要慢得多,能力也较低。其能力被估计与2018年OpenAI的模型GPT-1相当。然而,其内部工作机制却可以被更容易地追踪。例如,研究人员展示了如何使用最小且可理解的神经元和注意力头的子网络来学习完成引号(即匹配开头和结尾的引号)。研究人员可以确定模型中哪些部分处理符号识别、初始引号类型的记忆以及最终字符的放置。这种清晰度是前所未有的。

OpenAI设想了一个未来,基于这样的稀疏设计原则可以扩展到更强大的模型。他们相信,在几年内,可能会构建出一个与GPT-3相当的透明模型——一个足够强大的AI系统,可以应用于许多企业应用,但同时也完全可审计。

Anthropic的方法:解开学习特征

Anthropic,另一个主要的AI研究实验室,也是Claude系列语言模型的创造者,正在 大量投资机制可解释性。与从头开始重新设计模型架构不同,Anthropic专注于训练后分析,以了解密集模型。

他们的关键创新在于使用稀疏自动编码器来分解训练模型的神经激活为一组可解释的特征。这些特征代表了连贯的、往往可以被人类识别的模式。例如,一个特征可能会对DNA序列、另一个特征对法律术语、另一个特征对HTML语法激活。与原始神经元相比,原始神经元往往会在许多无关的上下文中激活,这些学习特征是高度特异性和语义上有意义的。

使其强大的原因是能够使用这些特征来监视、引导或抑制某些行为。如果一个特征一致地触发模型开始生成有毒或偏见语言,工程师可以在不重新训练整个系统的情况下抑制它。这引入了一种新的模型级治理和实时安全调优范式。

Anthropic的研究还表明,许多这些特征在不同模型大小和架构中是通用的。这为创建一个已知的、可解释的组件库打开了大门——可以在多个AI系统中重用、审计或监管的电路。

扩展的生态系统:初创公司、研究实验室和标准

虽然OpenAI和Anthropic是当前该领域的领导者,但他们并不是唯一的。Google DeepMind有专门的团队从事他们的Gemini和PaLM模型的电路级分析。他们的可解释性工作帮助发现了新颖的策略,这些策略后来被人类专家所理解和采用。

同时,初创公司也正在抓住这一机会。像Goodfire这样的公司正在为企业可解释性构建平台工具。 Goodfire的Ember平台 旨在提供一个供应商中立、模型无关的界面,用于检查内部电路、探测模型行为并实现模型编辑。该公司将自己定位为“AI的调试器”,并已吸引了金融服务和研究机构的兴趣。

非营利组织和学术团体也正在做出重大贡献。跨机构的合作导致了共享基准、开源工具(如TransformerLens)和基础审查的产生,概述了机制可解释性的关键挑战和路线图。这种势头有助于标准化方法并促进社区范围的进展。

政策制定者正在关注这一点。可解释性现在被讨论为正在开发的监管框架中的一个要求,在美国、欧盟和其他司法管辖区。对于受监管的行业,展示AI系统如何得出其结论的能力可能不仅是一种最佳实践,也是一种法律必需。

为什么这对商业和社会很重要

机制可解释性不仅是一种科学好奇心——它对企业风险管理、安全性、信任和合规性有直接的影响。对于在关键工作流中部署AI的公司来说,风险很高。一个不透明的模型可能会拒绝贷款、推荐医疗治疗或触发安全响应,必须对其负责。

从战略角度来看,机制可解释性使得:

  • 来自客户、监管机构和合作伙伴的更大信任。
  • 更快的调试和故障分析。
  • 在不需要完全重新训练的情况下调整行为的能力。
  • 明确的路径来认证模型以用于敏感领域。
  • 基于透明度和责任感的市场区别。

此外,可解释性是将高级AI系统与人类价值观保持一致的关键。随着基础模型变得更加强大和自主,理解其内部推理的能力将在确保安全性、避免意外后果和保持人类监督方面至关重要。

前方的道路:透明AI作为新的标准

机制可解释性仍处于早期阶段,但其轨迹很有希望。最初作为一个小众的研究追求,它现在已经发展成为一个日益增长的、跨学科的运动,得到了AI实验室、初创公司、学术界和政策制定者的贡献。

随着技术变得更加可扩展和用户友好,很可能可解释性将从实验特性转变为竞争要求。提供带有内置透明度、监控工具和电路级可解释性的模型的公司可能会在高信任度领域(如医疗保健、金融、法律技术和关键基础设施)获得优势。

同时,机制可解释性的进步将反馈到模型设计本身。未来的基础模型可能从一开始就以透明度为设计目标,而不是事后添加可解释性。这可能标志着向AI系统转变的开始,这些系统不仅强大,而且可理解、安全和可控。

总之,机制可解释性正在改变我们对AI信任和安全性的思考。对于商业领袖、技术人员和政策制定者来说,投资这一领域不再是可选的。这是迈向透明和负责任的AI未来的一个必要步骤。

安托万是一位具有远见的领导者和Unite.AI的创始合伙人,他被对塑造和推广AI和机器人人的未来充满不动摇的热情所驱动。作为一位连续创业者,他相信AI将对社会产生与电力一样的颠覆性影响,他经常被听到对颠覆性技术和AGI的潜力大加赞赏。

作为一位未来学家,他致力于探索这些创新将如何塑造我们的世界。另外,他也是Securities.io的创始人,这是一个专注于投资于重新定义未来和重塑整个行业的尖端技术的平台。