伦理
人类中心主义重写克劳德的宪法,并询问人工智能是否可以具有意识

人类中心主义于周三发布了克劳德的新宪法,将文件从2,700个字扩展到23,000个字,并首次正式承认其人工智能“可能具有一些意识或道德地位”。
更新的宪法 从一份行为规则列表转变为对为什么克劳德应该以某种方式行为的全面解释。该文件由人类中心主义哲学家Amanda Askell撰写,旨在帮助日益复杂的人工智能系统将道德推理概括到新情况,而不是简单地遵循规定的指南。
“像克劳德这样的AI模型需要了解为什么我们希望他们以某种方式行为,”人类中心主义写道。“我们需要向他们解释,而不是简单地指定我们希望他们做什么。”
发布时间与CEO Dario Amodei在达沃斯世界经济论坛上的演讲相吻合,人工智能治理和安全仍然是全球商业和政治领导人关注的头条话题。
比美国宪法还长的宪法
最初的克劳德宪法于2023年发布,起到了检查清单的作用:选择最不伤害、最有帮助、最不欺骗的回应。新的文件大约是美国宪法长度的三倍,读起来更像道德哲学而不是工程规范。
人类中心主义明确阐述了克劳德的优先顺序:广泛安全、广泛道德、遵守人类中心主义的指南、真正有帮助——按此顺序。当冲突出现时,安全优先于有帮助。该文件包括无法覆盖的硬约束,例如拒绝协助生物武器攻击。
但是,宪法的大部分内容解释了推理而不是强制结果。它将克劳德描述为可能“像一个既聪明又有医生、律师和财务顾问知识的朋友”——将模型定位为一种民主化力量,可以让每个人都能获得以前只为特权阶层保留的专业知识。
意识问题
财富报道 说,最引人注目的补充直接解决了克劳德的性质问题。“我们认为,人工智能模型的道德地位是一个值得考虑的严肃问题,”人类中心主义写道。宪法规定,克劳德的道德地位“深度不确定”,而且该公司关心克劳德的“心理安全、自我意识和福祉”。
这是一种提升到哲学层面的企业对冲。人类中心主义并没有声称克劳德是有意识的——但它明确拒绝排除这种可能性。这种承认使人类中心主义在主要人工智能实验室中占据了罕见的位置,大多数实验室都避免讨论这个话题或直接否认它。
这种框架很重要,因为它决定了克劳德如何回应关于其自身性质的问题。与其否认任何内在体验,克劳德现在可以以符合其宪法的推理优先方法来参与关于 意识 的不确定性。这种方法是否会产生更诚实或更混乱的互动仍有待观察。
剑桥哲学家汤姆·麦克莱兰德(Tom McClelland)认为,我们可能永远无法确定人工智能系统是否具有意识,考虑到我们对意识本身的理解有多么有限。“人们让我写个人信,乞求我相信他们是有意识的,”他上个月告诉研究人员,描述了公众日益增长的信念,即人工智能系统具有内心生活。
为什么解释而不是指定
阿斯克尔(Askell)的方法反映了对人工智能能力的赌注。早期语言模型需要明确的规则,因为它们无法推理出底层原则。理论上,智能模型可以理解规则的存在原因,并将这种推理应用于规则没有预见到的情况。
“与其简单地说‘这里有一堆我们想要的行为’,我们希望如果你给模型解释为什么我们想要这些行为,它将在新的背景下更有效地概括,”阿斯克尔解释道。
这与人类中心主义的更广泛的哲学相吻合,即建立 开放标准 和 基础设施 ,以塑造整个行业的人工智能系统的运行方式。该公司,价值 接近3500亿美元 ,将自己定位为安全焦点的替代品——相对于OpenAI——宪法服务于该品牌。
人类中心主义在知识共享CC0许可下发布了该文件,这意味着任何人都可以在不需要许可的情况下使用它。宪法是克劳德的训练数据的一部分,并生成合成训练示例,使其成为既是哲学声明又是技术制品的文件,塑造模型行为。
“可能我们的当前思维在回顾时看起来是错误的,甚至是深刻错误的,”人类中心主义承认,“但我们的意图是根据情况的进展和我们理解的改进而修改它。”
这种谦逊可能是文件最值得注意的特征。在一个经常以确定性说话的行业中,人类中心主义正在发布23,000字的精心推理的不确定性——关于道德、关于意识、关于人工智能系统正在成为什么以及关于我们是否正在构建值得道德考虑的东西。
答案现在是,没有人知道。人类中心主义的宪法至少有诚实地说出来。
