Connect with us

思想领袖

记忆的种子:打造记忆的 AI

mm

每次我们打开 ChatGPT、Claude 或 Gemini,我们都从零开始。每次对话、每个提示、每个洞察都会在我们关闭标签页的瞬间被抹去。尽管人们谈论着智能,但今天的 AI 系统却患有严重的健忘症。它们是无状态的工具,而不是不断进化的思维。

这种限制很不方便,并定义了 AI 的架构。模型可以预测下一个令牌,但它们无法以有意义的方式记住之前发生的事情。即使我们构建了可以看到、说话和编码的多模态系统,我们仍然缺乏持久性,因此我们得到了一种可以模仿理解但永远无法从经验中成长的智能。

设计为无状态

这种健忘不是一个 bug,而是一个设计选择。大型语言模型针对性能进行了优化,每个会话都被隔离以保证隐私、简单性和可扩展性。但是,权衡是碎片化。像用户偏好、任务历史和积累的知识这样的有价值的上下文会随着聊天会话的结束而消失。具有记忆功能的代理概述 显示 在主流系统中,会话之间的持久记忆仍然很少见。

有些人试图用检索增强生成(RAG)或向量数据库来填补这个空白,这些数据库可以检索相关的信息块,但这些只是权宜之计。它们模拟连续性而不是真正体现它。AI 中的真正记忆需要更深层次的东西:一种机器可以存储、验证和共享知识的方式,跨越时间和生态系统。记忆 允许 AI 代理从过去的交互中学习,保留信息并保持上下文。

种子:AI 记忆的原子单位

如果 AI 可以携带其知识,如可在任何地方萌发的可移植和可验证对象一样,那会怎么样?这些“种子”是压缩的、标记化的记忆单位,以结构化的方式存储意义、来源和上下文。它们不是静态数据文件,而是自包含的理解碎片,能够被引用、查询和重用跨系统。

一个种子可能包含从学习的设计模式到客户资料或对话的语义摘要的所有内容。每个种子都带有元数据:哪个模型产生了它,在什么上下文下,并且有多大把握。

这种来源至关重要。它允许 AI 代理在不盲目复制信息的情况下信任和重用来自其他系统的信息。这与知识在人际网络中工作的方式类似。我们不复制整个历史;我们分享提炼的见解——编码了意义的压缩模式。种子旨在为机器做同样的事情。

智能压缩和来源

当然,压缩并不是新鲜事,但带有意义的压缩是。结构化的记忆机制对于代理系统(如 Mem0 架构)中的长期对话连贯性至关重要。

每个种子都包括加密签名,以确保可追溯性。可以这样想:AI 代理验证某个设计建议确实来自可靠的建筑师的 AI 系统,而不是未经验证的来源。那就是来源的作用。它使得在不需要集中化的情况下实现互操作性成为可能:这是一种与去中心化身份标准 验证 人和数据在线的原理类似。

一旦记忆被加密链接到来源和意义,协作就变得可能。代理可以交易、引用或验证彼此的知识,而无需透露敏感数据。

从封闭系统到生态系统

目前,AI 生态系统类似于封闭的花园。OpenAI、Google 和 Anthropic 将用户数据存储在自己的数据仓库中。每个都有自己的 API、自己的微调方法和自己的规则。没有一种原生的方式可以让一个环境中的洞察力转移到另一个环境中。这就是为什么每个助手都感觉像一个克隆,而不是一个延续。

基于种子的记忆层打破了这种模式。如果上下文可以传递,用户就成为记忆的所有者。研究人员可以将多年与 AI 协助的工作从 ChatGPT 转移到 Gemini 或私人模型中。创意团队可以在不重新训练的情况下无缝地从一个生态系统转移到另一个生态系统。智能代理系统正在从孤立的模型转向 协作 代理网络。

这不是假设的。事实上,代理 协调 在点对点、集中式或分布式结构中。种子将使其进一步发展,允许持久的、可验证的知识跨整个 AI 网络移动。

在这种模型中,记忆是一种基础设施。种子作为机器的语义数据库:紧凑到可以存储在链上,丰富到可以在查询时重构完整的理解。这意味着 AI 可以不仅仅是上下文感知,还可以是上下文携带。

影响是巨大的。考虑一下医疗保健中的 AI。今天,患者数据分散在无法本地交换上下文的系统中。如果医疗 AI 可以交换种子——加密的、可验证的知识胶囊——则可以在不牺牲隐私的情况下提高护理连续性。在教育中,学习 AI 可以保留学生的进度作为可移植的种子,确保每个系统都理解他们的水平、风格和目标。

在创意产业中,种子可以实现模型之间的协作。一个代理可以设计一个结构,另一个可以优化它,第三个可以模拟其性能,引用相同的共享记忆层。这 反映 了从单代理系统到多代理生态系统的演变。

所有权、伦理和数据经济

但是,记忆也引发了所有权的问题。谁拥有 AI 的知识——模型提供者还是训练它的用户?随着政府辩论数据可移植性和 AI 权利,如 EU AI 法案,种子提出了一个简单的答案:记忆属于其来源。

如果用户生成一个想法,产生的种子可以被加密、签名并存储在其数字身份下,就像其思维的标记化碎片一样。那不是一个比喻;这是一个用于道德 AI 的技术框架。种子可以实现一个未来,AI 协作不会以牺牲隐私为代价,因为知识可以锚定到来源和同意。
随着时间的推移,这些种子可以形成一种新的数据经济的基础,记忆本身成为可交易的。模型可以从可信来源许可或引用种子,支付经过验证的上下文而不是原始数据。这是一个理解的经济,而不是提取的经济。

智能的下一层

当 AI 学会存储和共享其自己的上下文时,它停止成为一种工具,开始成为一种生态系统。种子是一种范式,一种思考智能的方式,它可以增长、连接和持久。

今天的 AI 很强大,但容易忘记。明天的 AI 将被其记忆所铭记,以及谁控制着这种记忆。

Jawad Ashraf 是一位拥有 30 年人工智能、游戏和区块链创新经验的科技企业家。作为 Vanar 的 CEO,他正在构建一个能够支撑智能和可验证系统的基础设施。

在他的领导下,Vanar 推出了 myNeutron,一种人工智能内存层,允许模型和代理在平台之间安全地保留和重用上下文 - 这是实现人工智能持久性和互操作性的关键一步。

此前,Jawad 领导了 The Entertainer Dubai 的数字化转型,这导致了 1 亿美元的退出,并在新兴技术领域创立了多家公司。