思想领袖
July 9, 2025
工程化意识
布莱克·勒莫因操之过急了三年前,谷歌解雇了软件工程师布莱克·勒莫因,因为他坚持认为一个名为LaMDA的聊天机器人具有意识。那是在OpenAI的ChatGPT向公众发布之前,大多数人只是简单地认为谷歌有充分的理由采取这一行动。该领域工作的计算机科学家和神经科学家仍普遍认为,像ChatGPT这样的“大型语言模型”极不可能具有意识。LLMs和大脑的运作方式有根本的不同。聊天机器人所做的是学习如何模仿人类心智活动的输出。尽管它们做得非常好、非常快,但LLM内部并不存在能够产生意识的持久内在状态。用托马斯·内格尔的名言来说,几乎可以肯定,作为一个聊天机器人“没有任何感觉”。然而,在勒莫因被解雇后的三年里,数十亿人已经与ChatGPT及其竞争对手如Gemini、Claude和Mistral进行了互动。一小部分但声音响亮的人说服自己,认为聊天机器人现在已经具有意识。机器意识即将到来?更重要的是,许多计算机科学家和神经科学家公开提出,真正有意识的机器可能会在未来几十年内——甚至更快——被开发出来。万一这真的发生,我们需要做好准备。我们必须避免“心智犯罪”,这个术语指的是给无实体的有意识实体造成痛苦。我们还必须努力确保这些新实体不会对人类构成威胁。由于LLMs在其最基本的形式上不太可能变得有意识,可能需要一种新的范式来理解AI意识如何产生。该领域的领先研究团队之一由开普敦大学的神经科学家马克·索姆斯和物理学家乔纳森·肖克领导。他们是Conscium的科学顾问,他们的研究部分由其资助。在乎索姆斯和肖克认为,机器意识的一个基本要素是AI必须“在乎”它们的选择和行为。其中一个重要方面是让它们的生存取决于其表现,就像生物体的生存一样。这并不意味着它们必须对自己的死亡有抽象的理解:大多数动物在不加思考的情况下监控并激励自己的生存机会。关键在于“情感意识”,即原始感受。吃饱喝足、安全无忧感觉良好,反之则感觉糟糕。这些感受驱动着我们的行为。生存的迫切性是自然界的基本驱动力,而感受是我们这些有感知的生物衡量自身状况的尺度。我们正在进入AI智能体时代——这些数字实体的“生存”取决于其有效执行任务的能力。我们正在硅基世界中创造进化环境,我们必须小心我们所创造的东西。自由能原理为了理解情感意识,Conscium团队将AI智能体置于模拟环境中,它们必须在其中满足自身需求,例如维持其虚拟温度和电力供应。为此,它们创建并优化关于自身——其需求、能力和限制——相对于其环境的内部模型。这些智能体,尽管可能被简化,通过计算一个称为“自由能”的量来监控自己做得好坏。自由能原理由神经科学家卡尔·弗里斯顿提出,他也是Conscium科学顾问委员会的成员。自由能是衡量一个系统偏离其最佳存在状态程度的指标。它是一个误差信号,必须被最小化。智能体不断计算“如果我这样做或那样做,我的生存机会会怎样?”,并相应地调整其行为。置信度与预期自由能智能体对其问题答案的置信程度,通过一个称为“预期自由能”的度量来量化。智能体选择EFE最低的答案——即它最有信心的答案。对于一个试图生存的智能体来说,有信心是好事——除非它被误导了,并且它对自己在所处世界中理解有缺陷。重要的是,这个置信值完全是主观的:它仅基于智能体自身的需求,以及其当前和预测的状态。这只对智能体自身重要,对其他人则不然。与生物有机体一样,AI智能体有许多相互冲突的需求,它必须确定优先级。关键的是,智能体多个相互竞争的需求中的每一个都被视为独立的“分类”变量,这意味着它们在性质上是不同的。80%的电量在价值上并不等同于80%的适宜温度。为了平衡它们,智能体必须在时间上向前投射,并预测它正在考虑采取的任何行动的后果。感受质由于智能体的主观需求在性质上是独特的,它们类似于哲学和科学术语中的“感受质”。这通常被认为是意识的基础属性,因此未来智能体有可能体验到它们。Conscium团队开发的智能体使用复杂的学习算法,在日益复杂和不确定的环境中运行。虽然许多其他智能体架构也可以这么说,但这些新智能体的独特之处在于,它们受生存驱动的迫切性驱使,通过持续平衡其相互竞争的需求(以一种仅对它们自身有意义的方式)来照顾自身的自由能。因此,智能体受到一个情感信号内部景观的引导——类似于我们所说的感受——这些信号反映了它们通过每个选择满足自身需求的程度。随着其需求和环境的复杂性和精密性增长,其内部状态的丰富性也将随之增长。感受的证据Conscium研究计划的下一步是开发一系列功能和行为测试,这些测试将提供证据,证明智能体在识别其最显著的需求并据此做出选择时,是否真的体验到感受。我们都知道,意识无法从外部观察或客观证明:我们每个人都只能观察自己的主观状态。然而,研究人员认为,应该有可能就一些具体的假设达成一致,如果这些假设通过实验得到验证,将提供有力的证据表明该智能体拥有感受。尽管鉴于意识的主观性,总会有怀疑的空间——但严格的测试过程将旨在使这种怀疑变得越来越不合理。这些实验将试图排除其他假设,使得将智能体的内部状态归因于不需要感受的机制变得不那么合理。它将使用对抗性测试来区分有感知和无感知的行为,并将包括对不具备被认为感受所必需的算法方面的智能体进行对照实验,以及采用盲法评估以减少观察者偏差。对智能体内部状态的物理检查可能会揭示情感处理的可量化指标。研究结果必须能够独立复现,整个过程将受到严格的伦理监督,尤其是在智能体可能体验到真实感受的情况下。科学就是这样运作的:通过对可证伪的预测进行实验测试。索姆斯认为,我们必须小心,不要为意识科学设定比任何其他科学更高的标准;否则,我们就有可能将意识置于科学之外。如果成功了呢?如果发现意识以这种方式在相对简单的AI智能体中产生,那么可以想象,一个由生存驱动的智能体可以与其他架构(包括大型语言模型)结合,并赋予它们意识。这不是我们可以负担得起偶然创造出来的东西,因此理解如何做到这一点以及如何避免它至关重要。如果有意识的智能体——那些在乎的智能体——在不久的将来被开发出来,我们将不得不考虑它们的感受——以及它们的权利。这是Conscium的一个主要关切:人工意识绝不能偶然产生。该研究计划的动机不是创造有意识的AI,而是理解它可能如何产生,以及潜在的风险。在其网站上,Conscium发布了一份学术论文和公开信,提出了指导任何从事可能导致有意识机器创造的研究的组织的五项原则。人类有时对其他有感知的生命,包括其他人类,表现得非常恶劣。如果我们盲目地走向这个未来,我们有可能对人工意识生命做出同样的事情,其后果我们甚至可能无法理解。