观点
ChatGPT 的内存限制令人沮丧 —— 大脑展示了更好的方式

如果你是 ChatGPT 的高级用户,你可能最近遇到了令人恐惧的“内存已满”屏幕。当你达到 ChatGPT 保存的内存限制时,会出现此消息,这可能会在长期项目中造成重大障碍。内存应该是复杂、持续任务的关键功能——你希望你的 AI 在未来的输出中保留之前会话的知识。在时间敏感的项目中(例如,我正在排除我们的一个姊妹网站上的持续 HTTP 502 服务器错误)看到内存满警告可能会非常令人沮丧和破坏性。
对 ChatGPT 内存限制的沮丧
核心问题不是内存限制的存在——甚至是 ChatGPT Plus 的付费用户也可以理解,存储的内容可能存在实际限制。真正的问题是 如何 管理旧内存一旦达到限制。当前的内存管理界面是乏味和耗时的。当 ChatGPT 通知你内存已满 100% 时,你有两个选项:逐一删除内存,或者同时删除所有内存。没有中间选项或批量选择工具来高效地修剪存储的信息。
删除一个内存一次,特别是如果你必须每隔几天这样做,感觉像是一项不利于长期使用的任务。毕竟,大多数保存的内存都是有原因保存的——它们包含了你提供给 ChatGPT 的有价值的上下文或你的业务。自然,你更愿意删除最少的项目以释放空间,这样就不会妨碍 AI 对你历史的理解。然而,内存管理的设计强制采用全部或无的方法或缓慢的手动策划。我个人观察到,每个删除的内存只释放大约 1% 的内存空间,表明系统只允许大约 100 个内存 总数,然后就会满(100% 使用)。这个硬性上限在现代 AI 系统的规模下感觉是武断的,并且破坏了 ChatGPT 成为随着时间推移而成长的知识助手的承诺。
应该发生的事情
考虑到 ChatGPT 和其背后的基础设施可以访问几乎无限的计算资源,长期内存的解决方案如此原始是令人惊讶的。理想情况下,长期 AI 内存应该更好地复制人类大脑随时间处理信息的方式。 人类大脑已经演化出高效的策略来管理内存——我们不会简单地记录每个事件的每个词,并将其无限期存储。相反,大脑的设计是为了高效:我们在短期内保留详细信息,然后逐渐 整合 和 压缩 这些细节到长期内存中。
在神经科学中,内存整合 指的是不稳定的短期内存转化为稳定、长期的内存的过程。根据整合的标准模型,新的体验最初由 海马体 编码,海马体是形成情景记忆的关键区域,随着时间的推移,知识被 “训练” 到皮层中以进行永久存储。这个过程不是瞬间发生的——它需要时间的推移,通常发生在休息或睡眠期间。海马体本质上充当快速学习缓冲区,而皮层逐渐将信息整合到更耐用的形式中,分布在广泛的神经网络中。换句话说,大脑的“短期内存”(工作内存和最近的体验)被系统地转移到分布式长期内存存储中。这一多步骤的转移使内存更能抵抗干扰或遗忘,类似于稳定录音以便不会被轻易覆盖。
关键是,人类大脑 不 浪费资源来存储每个细节。相反,它倾向于过滤掉琐碎的细节,并保留最有意义的体验。心理学家长期以来一直注意到,当我们回忆过去的事件或学习信息时,我们通常 记住它的本质 而不是逐字逐句的描述。例如,在阅读一本书或观看一部电影后,你会记住主要的情节和主题,但不是每一句对话。随着时间的推移,体验的确切措辞和细节会消退,留下对发生了什么的更抽象的总结。事实上,研究表明,我们的逐字内存(精确细节)比我们的本质内存(一般意义)更快地消退。这种存储知识的方法是高效的:通过丢弃多余的具体细节,大脑“压缩”信息,保留最有可能在未来有用的基本部分。
这种 神经压缩 可以类比于计算机压缩文件,实际上科学家已经在大脑中观察到了类似的过程。当我们在脑海中回放一段记忆或想象一个未来场景时,神经表示被有效地加速并去掉了一些细节——它是真实体验的压缩版本。 德克萨斯大学奥斯汀分校的神经科学家 发现了一种大脑波机制,允许我们在几秒钟内回忆一系列事件(例如,在杂货店度过的一个下午),使用一种更快的大脑节律来编码更少的详细信息、更高层次的信息。换句话说,我们的大脑可以快速浏览记忆,保留大纲和关键点,同时省略丰富的细节,这些细节在重放时是不必要的或太笨重的。结果是,想象的计划和回忆的体验以压缩形式存储——仍然有用且易于理解,但比原始体验更节省空间和时间。
人类内存管理的另一个重要方面是 优先级。并非所有进入短期内存的内容都会被永远保存在长期存储中。我们的脑子会下意识地决定什么值得记住,什么不值得,基于重要性或情感唤醒。 洛克菲勒大学最近的一项研究 使用老鼠演示了这个原理:老鼠被暴露在迷宫中的几个结果(一些奖励很高,一些奖励较小,一些是负面的)。最初,老鼠学习了所有的关联,但一个月后进行测试时,只有 最突出的 高奖励内存被保留,而不太重要的细节已经消失了。
换句话说,大脑过滤掉了噪音并保留了对动物目标最重要的内存。研究人员甚至确定了一个大脑区域,前丘脑,它在整合过程中充当海马体和皮层之间的调节器,指示哪些内存重要到足以“保存”长期。丘脑似乎为有价值的内存提供持续的强化——基本上告诉皮层“保留这个”,直到内存被完全编码——同时允许不太重要的内存消退。这个发现强调了 遗忘不仅是记忆的失败,也是系统的主动功能:通过放弃琐碎或冗余的信息,大脑防止其内存存储被混乱,并确保最有用的知识可以轻松访问。
重新思考 AI 内存与人类原则
人类大脑处理内存的方式为 ChatGPT 和类似的 AI 系统如何管理长期信息提供了明确的蓝图。与其将每个保存的内存视为必须保留或手动删除的孤立数据点,AI 可以 整合和总结旧内存 到背景中。例如,如果你有十个相关的对话或事实存储在你的正在进行的项目中,AI 可能会自动将它们合并成一个简洁的总结或一组关键结论——有效地压缩内存,同时保留其本质,就像大脑将细节压缩成本质一样。这将在不真正“忘记”旧交互作用中释放新信息的空间。事实上,OpenAI 的文档 暗示 ChatGPT 的模型已经可以自动更新和合并保存的细节,但当前的用户体验表明它尚未顺畅或充分。
另一个受人类启发的改进将是优先保留内存。与其有一个严格的 100 项限制,AI 可以权衡哪些内存在用户的需求中最频繁相关或最关键,并且只丢弃(或降采样)那些似乎最不重要的内存。在实践中,这可能意味着 ChatGPT 确定某些事实(例如你的公司的核心目标、正在进行的项目规范、个人偏好)是高度重要的,应该始终保留,而过去几个月来的单次琐事可以被存档或删除。这种动态方法类似于大脑 持续修剪未使用的连接 并加强频繁使用的连接以优化认知效率。
最终,AI 的长期内存系统应该 演化,而不是填满然后停止。人类内存是非常适应性的——它随着时间的推移而转变和重新组织,并且它不会期望外部用户来管理每个内存插槽。如果 ChatGPT 的内存更像我们的内存,用户就不会面临 100 个条目的突然障碍,也不会面临全部删除或单击删除 100 个项目的痛苦选择。相反,旧的聊天记录将逐渐转变为 AI 可以抽取的浓缩知识库,只有真正过时或不相关的部分才会消失。AI 社区,这里是目标受众,可以欣赏到实施此类系统可能涉及上下文总结、向量数据库用于知识检索 或神经网络中的分层内存层等技术——所有这些都是活跃的研究领域。事实上,给 AI 一种“情景记忆”的形式,它会随时间压缩,这是一个众所周知的挑战,解决它将是朝着持续学习和可持续扩展知识库的 AI 迈出的一大步。
结论
ChatGPT 的当前内存限制感觉像是一个权宜之计,它没有利用 AI 的全部潜力。通过研究人类认知,我们看到有效的长期内存不是关于存储无限的原始数据——它是关于智能压缩、整合和忘记正确的东西。人类大脑保留重要内容同时节省存储空间的能力,正是使我们的长期内存如此庞大和有用的原因。为了使 AI 成为真正的长期合作伙伴,它应该采用类似的策略:自动将过去的交互式压缩成持久的见解,而不是将此负担卸给用户。遇到“内存满”墙的沮丧可以被一个随着使用而优雅增长的系统所取代,这个系统以灵活、类似人类的方式学习和记忆。采用这些原则不仅可以解决用户体验的痛点,还可以为依赖这些工具的用户和开发人员社区解锁更强大、更个性化的 AI 体验。












