Anderson 视角
转向验证经济

检查 AI 的工作可能会成为新机器学习经济中一个重要的部门,这个部门需要大幅度扩张,并且不能被自动化。但是,随着时间的推移,人类“专家”的质量可能会下降。
观点. 我的妻子是欧洲最拥挤和最紧张的官僚机构之一的建筑师。她的教育价值的一部分在于获得和维护她的 签名权 – 一种昂贵的证书,每年必须重新注册,并允许她在可能涉及数十万甚至数百万欧元的提案上“签字”。
她告诉我,这并不是她工作中最困难的部分,因为它只正式化了她自己的计算或其他人的计算,对于这个目的,外部工作通常不难检查。
本质上 – 就像经常在任命 CEO 时一样 – 这个印章(它是字面上的印章)主要为利益相关者提供了一个可以追究责任的人,如果事情出错的话。通过确保问责制,它还促进了 保险覆盖 和投资者信心,这些在没有这样的担保的情况下是无法获得的。
这是我一生中第二次亲眼看到这个过程;25 年前,我与一位在另一个臭名昭著的欧盟官僚机构意大利的肿瘤学家订婚,我看到了她的专家签名在一个需要许多其他人贡献他们的专业知识的信任链中的最后阶段。
我从我的前未婚妻和最近我的妻子那里听说,他们的职业都是/被合格的骗子所充斥,他们出售自己的签名并避免更原创或更有用的工作,因为这些工作的利润较低。这样的愤世嫉俗的从业者可以收取高额费用,因为他们代表着相对稀缺和必不可少的资源。
查看
这个话题让我想起了今天我偶然发现的一篇新的、庞大的 论文,题为 AGI 的一些简单经济学。在这篇论文中,三位来自 MIT、圣路易斯华盛顿大学和加州大学洛杉矶分校的研究人员描绘了一个近未来,AI 驱动的自动化的令人恐惧的、工作岗位消失的动力 与在高风险场景中需要真正的责任人的需求相碰撞,从而导致一个新的人类验证、核实和责任经济。
这篇论文与媒体目前对缩减的商业部门的想象形成对比,这些部门的办公室被减少到单个“监督者”,他们的决定被用作训练数据,以(希望)消除最后一丝肉类设备†。
相反,作者认为,实际考虑和合规性要求将使公司的“橡皮图章”人类受到关注,这些人类会安抚公司的(AI/人类/AI 辅助)法律部门:
‘对于公司来说,核心战略洞察是,验证不再是一种简单的合规功能,而是一种主要的生产技术——并且越来越成为他们最有防御性的技术。这规定了一个结构性的转变:大量投资于可观察性,扩大验证级别的真实性,并围绕“三明治”拓扑(人类意图 → 机器执行 → 人类验证和承保)重新组织。 ‘
‘在一个原始产出被商品化的经济中,竞争优势转移到能够可靠地引导和认证代理系统的稀缺人才和数据——在产出中产生网络效应,而不是在纯粹的产出中。’
作者假设,增长的决定性约束可能不是智力——AI 已经将其与生物学“解耦”——而是 验证带宽。
价值转向人类验证
该论文描述了向 AGI 的转变是一个机器输出的生产成本和检查该输出的成本之间的差异日益扩大的过程,后者仍然与有限的人类时间和生活经验相关。
生成计划、报告、设计和建议在这种情况下将变得廉价和丰富,而确定哪些是合理的、对齐 和安全的将成为“稀缺功能”。因此,系统的有效限制将不是它可以产生多少输出,而是多少输出 可以被可信地验证。
因此,作者预测,系统将开始 奖励可衡量性本身:可以参数化的工作将随着其执行成本接近计算的边际成本而转向商品化,其价值将在高质量的真实性、可靠的审计跟踪和机构机制中积累,这些机制用于分配和吸收责任。
因此,在验证经济中,优势将不在于产生内容,而在于认证结果和承保与这些结果相关的风险。
如果自动化继续加速,而验证仍然受到人类时间和注意力的限制,该论文预测,一个 空洞经济 将出现,在这种情况下,随着自动化工作的成本下降,更多的代理将被部署,因为这样做在经济上是合理的——尽管检查他们的输出的能力不会以相同的速度增长。在这种情况下,真正经过验证的工作份额将缩小,带来所有负面后果。
相反,一个 增强经济 将确保验证能力与自动化同步扩展。这需要对结构化培训进行有意的投资,以保存专业知识,以及新的 责任框架,这些框架可以吸收风险。然后,部署将与实际可以检查和保险的内容相关联——有效地,技术发展的前所未有的规模将使一个非常古老的瓶颈重新受到关注:
‘在技术领域,主导的收入模式将从软件访问的货币化(软件即服务)转向结果的货币化(“软件即劳动”)。因此,公司将主要根据其吸收尾部风险的能力来评估——通过 责任即服务。
‘执行现在可以无限扩展;吸收其不可避免的故障的法律和财务能力是新的瓶颈。’
递减收益
的确,保存人类的领域专业知识对于这个问题至关重要,因为作者认为,工业化监督的文化将随着时间的推移而使执行监督的人的质量下降——因为后续的监督者一代将不再拥有需要验证的领域的直接和亲身经历。
可以说,在那时,监督的质量将真正容易受到自动化的影响,因为新的决定将仅基于先前的决定。然而,这将使利益相关者 没有可以追究责任的人,或一个可行的商业模式。它还将使这种角色变得如此不稳定和风险重重,以至于即使在就业率低的环境下,也会变得不吸引人。
将持牌专业人士,如医生和建筑师,隔离在一个薪水高但负担重的“橡皮图章”位置上,可能会随着时间的推移而侵蚀他们在这种角色中的价值:他们的实际领域经验越是过去,他们的决定就可能变得越“理论化”,因为他们放弃的领域将在他们缺席的情况下继续发展。
(这在 AI 之前的商业文化中很熟悉,以有技能的员工进入管理层并变得越来越脱离实际情况为标志,最终会破坏他们作为监督者和组织者的价值。对于 Star Trek: TNG 的粉丝来说,这也很熟悉,以 Pakleds 的形式出现——一个使用先进技术的种族,但不再知道如何创建或修复它。)
历史上,入门级执行一直作为未来的专家培训的场所;但是,如果自动化消除了通过这些任务培养判断力的常规任务,那么有能力的验证者的未来供应将会减少,作者认为。
因此,该论文预示着一个悖论:机器系统越强大,社会就越依赖于那些系统可能会侵蚀的人类专业知识 库存。
让我们记住,这在任何方式上都不是一个技术问题,也不是一个可以通过技术解决的解决方案。在很多方面,这种综合征表明了与 AI 模型崩溃 相同的后勤等价物——除了这里,我们正在考虑的是 经济 模型的破坏:
‘从政策角度来看,核心挑战是一个深刻的结构性不对称性:AI 部署的收益被激进地私有化,而系统风险被社会化。公司和个人占有自动化的上游,而外部化灾难性的尾部风险。 ‘
‘没有共享的验证基础设施和严格的责任定价,市场将合理地转向一个空洞经济——一个以爆炸性的衡量活动为特征的均衡,但基本上是空洞的的人类控制。’
结论:不同的危机
作者将预测的危机定义为 可衡量性差距,其中可以自动化的可量化过程将远离所有人类贡献,留下 n 难或 n 法律过程,这些过程仍然需要人类专业知识。
然而,我妻子的经验表明,一个过程的复杂性或难度并不一定与该过程中需要的责任相关;她“签字”确认的许多事情本身代表着微不足道的问题或计算,但在违约时却很重要。随着商业文化变得越来越诉讼狂,保险人和投资者将需要在更广泛的过程中进行人类责任。
因此,转向验证经济可能会引发与目前占据头条新闻的危机不同的危机。在这种情况下,问题不在于 AI 是否可以产生更多,而在于机构是否可以验证足够的产出,以将机器智能转化为持久的价值。
由于机器智能可能很快会以无与伦比的速度扩展,而适用案例的人类时间的可用性无法跟上这种速度,该论文中概述的问题可能会很快出现——即使它们最初被 AI 采用的更广泛的经济影响所淹没。
* 该论文太长,无法按通常的方式分解,而且在结构上不适合此类分析。因此,我决定对其进行评论并考虑其意义,并将读者引导至源作品,以便他们可以做同样的事情。
† /s
首次发布于 2026 年 2 月 25 日星期三












