关注我们.

思想领袖

人工智能的记忆危机:我们正在构建一个数字黑暗时代

mm

数百万个人工智能代理正在进入生产系统。几乎没有一个代理能够共享运行经验。这就是为什么架构选择至关重要——以及如果我们选择正确,将会带来怎样的改变。

下午 2:06,一位顾客在网上订购了一台笔记本电脑。

收银员查询其运营数据库:购买记录清白,金额在正常范围内,收货地址之前已使用过,设备和位置与近期成功订单一致。一切正常。收银员批准订单。

与此同时,行为代理会处理公司数据中心中的点击流数据。它从会话中提取出一个模式:用户直接进入了深度结账页面,没有进行任何浏览或比较行为。这个信号本身并不强烈,但如果与其他正常的购买行为结合起来,它就是账户盗用场景中已知的先兆。

行为代理会将此解释记录为衍生知识,以便后续分析和模型训练。

结账代理永远不会看到它。不是因为没有计算出该信号,也不是因为它被忽略了——而是因为这些信息存在于结账代理在授权过程中不会查询的系统中。

每个智能体都会根据其所看到的信息做出正确的行为。每个智能体都会向其所属的系统写入数据。但是,一个智能体获得的洞察在决策时对另一个智能体是不可见的。

笔记本电脑已发货。

36小时后,该笔交易被质疑。调查证实,该账户当天早些时候已被盗用。攻击者利用结账代理决策上下文之外的行为信息这一事实,将交易控制在正常范围内。

问题不在于数据缺失、处理速度慢或模型错误,而在于代理之间的信息孤岛:知识已经形成,但并未共享。

这就暴露了一个几乎无人提及的问题。我们构建的架构中,人工智能代理在做决策时无法获取其他人工智能代理已经发现的信息。

印刷术解决的问题

在印刷术发明之前,知识十分脆弱。学者去世后,他们的大部分研究成果也随之消逝。伦敦的一位数学家可能花费数十年时间发现的原理,巴黎的一位数学家可能在五十年后独立地重新发现。进步固然存在,但却是局部的、缓慢的,而且总是不断被重置。

印刷机 它并没有使个人变得更聪明,而是将记忆外化了。知识不再局限于单个人的头脑,而是开始超越其创造者的生命而存续。洞见可以代代相传、反复审视和发展。这正是进步得以不断累积的原因。

我们有可能在人工智能领域重蹈印刷术发明前时代的覆辙。

现在大多数组织都在生产系统中部署人工智能代理。还有更多代理机构积极在客户支持、软件开发、研究和欺诈检测等领域进行试验。这些代理机构通常作为独立服务部署,并与现代技术接轨。 微服务架构每个部门都有自己的数据和运营边界。即使在同一组织内部,各个部门也会从自身的生产经验中汲取洞见,但很少与其他参与相关决策的部门分享这些知识。

因此,运营洞察仍然分散。局部决策或许会有所改进,但经验无法在整个系统中积累。任何局限于单个机构的突破都无法累积成整体。

这一次,限制因素并非智能或速度,而是记忆。如果人工智能系统无法将它们发现的信息外部化并分享,那么进步的停滞频率远大于增长的幅度。

共享内存的实际样子

更大的上下文窗口可以丰富个人的推理过程,但它们并不能创造共享的、 代理的持续经验.

共享记忆改变结果不是通过改进模型,而是通过改变决策者在决策时可以看到的内容。

在一个孤立的系统中,每个代理在其自身边界内都能做出正确的推理。例如,结账代理评估交易风险,行为代理分析点击流模式。每个代理都将自己的结论写入其所属的系统,而这些结论对并行运行的其他代理是不可见的。决策在局部范围内是正确的,但在全局范围内是不完整的。

有了共享内存层,这种界限就消失了。

当行为代理处理会话时,它会提取出一个微弱但有意义的信号:与早期账户盗用尝试相关的导航模式。它不会仅仅将此信息存储起来以供离线分析,而是将其写入与当前会话关联的共享内存中。

片刻之后,当收银员评估这笔交易时,它会查询同一份内存。交易看起来仍然正常。但现在它看到了额外的信息:一条原本不会出现的行为警告。这两个信号单独来看都不足以做出决定。但它们结合起来,才达到了需要进一步验证的阈值。

智能体本身没有任何改变。没有模型需要重新训练。也没有中央控制器介入。区别在于可见性:一个智能体形成的洞察在仍然重要的时候就能被另一个智能体获取。

至关重要的是,这种洞察力会持续存在。当结果最终揭晓——无论是欺诈还是合法——信号与结果之间的关联都会被记录下来。随着时间的推移,系统会积累经验记录,记录哪些弱指标往往起着重要作用,以及在何种条件下起作用。未来的决策将基于超越任何单一互动或主体的经验。

共享内存既不是数据仓库,也不是操作型数据库。它是派生上下文的低延迟基础:这些上下文包括信号、解释和关联,它们在产生它们的交互过程中得以保留,并可供其他做出相关决策的主体查询。

这就是经验积累的方式——不是在任何一个单一模型中积累,而是在整个系统中积累。

代理孤岛背后的架构权衡

代理孤岛并非实施错误,而是围绕不同类型消费者设计的企业架构的必然结果。

几十年来,生产系统一直按功能划分工作负载。操作系统针对低延迟、一致的事务进行了优化,而分析系统则针对大规模聚合和历史模式发现进行了优化(OLTP 与 OLAP这种分离反映了洞察力的消费方式:分析结果是为人类而非机器产生的,因此预计结果是异步到达的,并且不在决策的关键路径之内。

人工智能代理继承了这种架构上的划分,但它们并不适合这种划分。

其后果不仅仅是洞察力的延迟,而是结构性的盲点。分析系统产生的洞察力,按其设计而言,是在实时决策已经做出之后才被发现的。那些可能改变结果的信号确实存在,但由于它们存在于并非旨在供自主决策者持续查询的系统中,因此无法在决策时显现出来。

该架构本身没有问题,只是与自主系统的需求不匹配。

缺失的学科:情境工程

共享记忆引入了一个大多数团队尚未准备好解决的问题:决定哪些经验应该保留。

人工智能系统会产生海量的原始经验——交易、点击、消息、操作、结果。将所有这些信息保存下来既不实际也无用。如果没有经过深思熟虑的选择,共享记忆就会变成噪音。真正的挑战不在于收集更多的数据,而在于如何将经验塑造成其他智能体可以利用的语境。

这是角色 情境工程.

情境工程是一门决定哪些观测结果能成为持久信号、如何呈现这些信号以及何时将其暴露给其他主体的学科。它介于原始事件和主体推理之间,将瞬态活动转化为共享的、与决策相关的理解。

在实践中,这意味着要重视模式、指标和条件关联,同时让大部分原始经验逐渐淡化。微弱的信号或极端情况单独来看可能无关紧要,但当它们积累起来并在合适的时机呈现出来时,就会变得很有价值。

上下文工程决定了共享记忆是仅仅存储经验,还是能够让经验不断累积。

如果我们做对了会发生什么?

这并非未来需要考虑的问题,而是基础设施团队目前正在做出的(通常是隐式的)架构决策。

默认路径是孤立。人工智能体独立行动,仅依赖自身经验。每个智能体都能快速做出局部正确的决策,但智能发展终会达到瓶颈。同样的极端情况反复出现,微弱的信号被重新发现,失败以更快的速度和更大的频率重复发生。

另一种方法是采用共享内存层。

当衍生背景信息持续存在并在决策时可见时,经验就不会消散。曾经发现的洞见会一直有效。微弱的信号会通过积累而变得有意义。决策的改进并非源于模型的改变,而是因为决策者不再孤立地进行推理。

这并不需要更大的模型、实时重新训练或集中控制。它需要将内存视为一流的架构层——专为低延迟访问、持久性和共享可见性而设计。

架构默认设置会迅速固化。随着智能体数量的激增,没有共享内存的系统将越来越难以进行改造。选择很简单:要么构建能够积累经验的系统,要么构建会无限重置的系统。

Xiaowei Jiang是CEO兼首席架构师 塔克诺德他主要致力于为人工智能代理构建上下文基础设施。