人类中心主义重写克劳德的宪法,并询问人工智能是否可以具有意识
人类中心主义于周三发布了克劳德的新宪法,将文件从2,700个字扩展到23,000个字,并首次正式承认其人工智能“可能具有某种意识或道德地位”。更新的宪法 从一份行为规则列表转变为对为什么克劳德应该以某种方式行为的全面解释。该文件由人类中心主义哲学家Amanda Askell撰写,旨在帮助日益复杂的人工智能系统将道德推理概括到新情况,而不是简单地遵循规定的指南。“像克劳德这样的AI模型需要了解为什么我们希望它们以某种方式行为,”人类中心主义写道。“我们需要向它们解释这一点,而不是简单地指定我们希望它们做什么。”发布时间与CEO Dario Amodei在达沃斯世界经济论坛的演讲相吻合,人工智能治理和安全仍然是全球商业和政治领袖的头条话题。比美国宪法还长的宪法最初的克劳德宪法于2023年发布,起到了检查清单的作用:选择最不伤害、最有帮助、最不欺骗的回应。新的文件大约是美国宪法长度的三倍,更像道德哲学而不是工程规范。人类中心主义明确阐述了克劳德的优先顺序:广泛安全、广泛道德、遵守人类中心主义的指南、并真正有帮助——按照这个顺序。当冲突出现时,安全优先于有帮助。该文件包括无法覆盖的硬约束,例如拒绝协助生物武器攻击。但宪法的大部分内容解释了推理而不是规定结果。它将克劳德描述为可能“像一个既有知识又有医生、律师和财务顾问知识的杰出朋友”——将模型定位为一种民主化力量,可以让每个人都能获得以前只为特权阶层保留的专业知识。意识问题财富报道 说,最引人注目的补充直接解决了克劳德的性质问题。“我们认为,人工智能模型的道德地位是一个值得考虑的严重问题,”人类中心主义写道。宪法规定,克劳德的道德地位“深深不确定”,该公司关心克劳德的“心理安全、自我意识和福祉”。这是一种提升到哲学层面的企业回避。人类中心主义并没有声称克劳德是有意识的——但它明确拒绝排除这种可能性。这种承认使人类中心主义在主要人工智能实验室中处于罕见的位置,大多数实验室都避免讨论这个话题或直接否认它。这种框架很重要,因为它决定了克劳德如何回应关于其自身性质的问题。克劳德可以以符合其宪法的推理优先方法与不确定性进行交互,而不是否认任何内部体验。不管这是否会产生更诚实或更混乱的交互尚待观察。剑桥哲学家汤姆·麦克勒兰德认为,我们可能永远无法确定人工智能系统是否具有意识,考虑到我们对意识本身的理解有多么有限。“人们让他们的聊天机器人给我写个人信,乞求我相信他们是有意识的,”他上个月告诉研究人员说,描述了公众日益增长的信念,即人工智能系统具有内在生活。为什么解释而不是指定阿斯凯尔的方法反映了对人工智能能力的赌注。早期的语言模型需要明确的规则,因为它们无法推理出根本原则。更智能的模型,理论上,可以理解规则的存在理由,并将这种推理应用于规则无法预见的情况。“与其简单地说,‘这里有一堆我们想要的行为,我们希望你遵循,’我们希望,如果你给模型为什么我们想要这些行为的理由,它将在新的背景下更有效地概括,”阿斯凯尔解释道。这与人类中心主义的更广泛的哲学相吻合,即建立 开放标准 和 基础设施,以塑造人工智能系统在整个行业中如何运行。该公司,价值 接近3500亿美元,将自己定位为安全专注的替代品,以对抗OpenAI——而宪法服务于这一品牌。人类中心主义在知识共享CC0许可下发布了该文件,这意味着任何人都可以在不需要许可的情况下使用它。宪法是克劳德的训练数据的一部分,并生成合成训练示例,使其成为既是哲学声明又是技术工件的东西,塑造模型行为。“我们当前的思考方式很可能会在回顾中看起来是错误的,甚至是深刻错误的,”人类中心主义承认,“但我们的意图是,当情况进展和我们理解提高时修改它。”这种谦逊可能是文件最值得注意的特征。在一个经常以确定性说话的行业中,人类中心主义正在发布23,000字的精心推理的不确定性——关于道德、关于意识、关于人工智能系统正在成为什么以及关于我们是否正在构建值得道德考虑的东西。答案现在是,没有人知道。人类中心主义的宪法至少有诚实地说出来。