关注我们.

检讨

ChatGPT 的记忆限制令人沮丧——大脑找到了更好的解决方法

mm

如果您是 ChatGPT 的资深用户,最近可能遇到过令人头疼的“内存已满”屏幕。当您达到 ChatGPT 保存内存的上限时,就会出现此消息,这对于长期项目来说可能是一个重大障碍。内存被认为是复杂、持续性任务的关键特性——您希望您的 AI 能够将之前会话中的知识运用到未来的输出中。在一个时间紧迫的项目中途看到内存已满的警告(例如,当时我正在我们一个姊妹网站上排除持续存在的 HTTP 502 服务器错误),可能会非常令人沮丧和困扰。

ChatGPT 内存限制带来的困扰

核心问题并非内存限制——即使是 ChatGPT Plus 的付费用户也能理解,实际的存储量可能存在限制。真正的问题是 形成一种 一旦达到上限,您就必须管理旧记忆。当前的内存管理界面繁琐且耗时。当 ChatGPT 通知您内存已满时,您有两个选择:费力地逐个删除记忆,或一次性清除所有记忆。没有中间步骤或批量选择工具来有效地删除存储的信息。

一次删除一条记忆,尤其是每隔几天就必须删除一次,感觉像是一件苦差事,不利于长期使用。毕竟,大多数保存的记忆都是有原因的——它们包含你向 ChatGPT 提供的关于你的需求或业务的宝贵信息。你自然希望删除尽可能少的条目以释放空间,这样就不会妨碍 AI 理解你的历史记录。然而,内存管理的设计迫使你采取“全有或全无”的策略,或者进行缓慢的手动整理。我个人观察到,每次删除的记忆只会释放大约 1% 内存空间,表明系统只允许 共计 100 条记忆 在达到满负荷(100% 使用率)之前。考虑到现代人工智能系统的规模,这种硬性上限显得过于武断,也削弱了 ChatGPT 成为知识渊博、与您共同成长的助手的前景。

应该发生什么

考虑到 ChatGPT 及其背后的基础设施能够访问几乎无限的计算资源,令人惊讶的是,长期记忆的解决方案竟然如此简陋。理想情况下, 长期人工智能记忆应该更好地复制人类大脑随着时间的推移如何运作和处理信息。 人类大脑已经进化出高效的记忆管理策略——我们不会简单地逐字逐句地记录每个事件并无限期地存储它们。相反,大脑的设计是为了提高效率:我们会在短期内保存详细信息,然后逐渐 巩固压缩 将这些细节存入长期记忆中。

在神经科学领域, 记忆巩固 指不稳定的短期记忆转化为稳定、持久记忆的过程。根据标准的巩固模型,新的经验最初由 海马大脑中形成情景记忆的关键区域,随着时间的推移,这些知识 “训练”进大脑皮层 永久存储。这个过程并非瞬间发生——它需要时间的流逝,并且通常发生在休息或睡眠期间。海马体本质上充当着快速学习的缓冲器,而大脑皮层则通过广泛的神经网络逐渐将信息整合成更持久的形式。换句话说,大脑的“短期记忆”(工作记忆和近期经历)被系统地转移和重组,形成一个分布式的长期记忆存储。这种多步骤的转移使记忆更能抵御干扰或遗忘,就像稳定录音使其不易被覆盖一样。

至关重要的是,人类的大脑 才不是 逐字逐句地存储每个细节会浪费资源。相反,它往往会过滤掉琐碎的细节,只保留我们经历中最有意义的部分。心理学家早就注意到,当我们回忆过去的事件或学到的信息时,我们通常 记住它的要点 而不是逐字逐句的完美记述。例如,读完一本书或看完一部电影后,你会记住主要的情节和主题,但不会记住每一句台词。随着时间的推移,确切的措辞和细节会逐渐消失,留下对事件更抽象的概括。事实上,研究表明,随着时间的推移,我们的逐字记忆(精确的细节)比要点记忆(大致含义)消退得更快。这是一种有效的知识存储方式:通过丢弃无关的细节,大脑“压缩”信息,保留未来可能有用的重要部分。

本篇 神经压迫 它可以类比为计算机压缩文件的方式,科学家也确实在大脑中观察到了类似的过程。当我们在脑海中重现一段记忆或想象一个未来场景时,神经表征实际上被加速了,并剥离了一些细节——它是真实体验的压缩版本。 德克萨斯大学奥斯汀分校的神经科学家 发现了一种脑电波机制,使我们能够在几秒钟内回忆起一系列事件(比如,在杂货店度过的下午),只需使用更快的脑电波节奏,编码更少细节、更高级的信息。本质上,我们的大脑可以快速浏览记忆,保留概要和关键点,同时省略丰富的细节,因为这些细节对于完整回放来说没有必要或过于繁琐。结果是,想象中的计划和记忆中的经历以一种浓缩的形式存储——仍然有用且易于理解,但比原始经历更节省空间和时间。

人类记忆管理的另一个重要方面是 优先级并非所有进入短期记忆的内容都会在长期存储中永久保存。我们的大脑会根据重要性或情感显著性,潜意识地决定哪些值得记住,哪些不值得记住。 洛克菲勒大学最近的研究 用老鼠证明了这一原理:老鼠在迷宫中接触到几种结果(一些是高回报的,一些是中等回报的,一些是负面的)。起初,老鼠学会了所有的联想,但一个月后测试时,只有 最突出的 高奖励记忆被保留了下来,而不太重要的细节却消失了。

换句话说,大脑过滤掉了噪音,保留了对动物目标最重要的记忆。研究人员甚至发现了一个大脑区域,即 丘脑前部丘脑在记忆巩固过程中充当着海马体和皮层之间的调节器,发出信号指示哪些记忆足够重要,值得长期“保存”。丘脑似乎会持续强化重要的记忆——本质上是告诉皮层“保留这个”,直到记忆完全编码——同时允许不太重要的记忆逐渐消失。这一发现强调了 遗忘不仅仅是记忆的失败,也是系统的一个主动特征:通过放弃琐碎或多余的信息,大脑可以防止记忆存储变得混乱,并确保最有用的知识可以轻松获取。

用人类原则重新思考人工智能记忆

人类大脑处理记忆的方式为 ChatGPT 和类似的人工智能系统如何管理长期信息提供了清晰的蓝图。人工智能不再将每段已保存的记忆视为必须永久保存或手动删除的孤立数据点,而是可以 巩固和总结旧记忆 在后台运行。例如,如果你存储了十个与正在进行的项目相关的对话或事实,AI 可能会自动将它们合并成一个简洁的摘要或一组关键结论——有效地压缩记忆,同时保留其精髓,就像大脑将细节浓缩成要点一样。这将为新信息腾出空间,而不会真正“忘记”旧交互中的重要内容。事实上,OpenAI 的文档 提示 ChatGPT 的模型已经可以对已保存的细节进行一些自动更新和组合,但目前的用户体验表明它还不够无缝或充分。

另一项受人类启发的改进是优先记忆保留。AI 不再局限于 100 条记录的固定上限,而是可以权衡哪些记忆与用户需求最相关或最关键,并只丢弃(或降低采样率)那些看起来最不重要的记忆。在实践中,这可能意味着 ChatGPT 会识别出某些信息(例如,公司的核心目标、正在进行的项目规格、个人偏好)非常重要,应该始终保留,而几个月前的一次性琐事则可以优先存档或删除。这种动态方法类似于大脑 不断修剪未使用的连接 并强化常用词以优化认知效率。

人工智能的长期记忆系统应该 evolve,而不仅仅是填满就停止。人类记忆具有极强的适应性——它会随着时间的推移自我转变和重组,并且不需要外部用户对每个记忆槽进行微观管理。如果 ChatGPT 的记忆机制更像我们自己的记忆,用户就不会在 100 条记录时突然遇到瓶颈,也不会在清除所有内容和逐一浏览一百条记录之间做出痛苦的选择。相反,较旧的聊天记忆会逐渐演变成人工智能可以利用的精炼知识库,只有真正过时或不相关的部分才会消失。人工智能社区,也就是本文的目标受众,可以理解,实现这样的系统可能需要诸如上下文摘要之类的技术, 用于知识检索的矢量数据库或神经网络中的分层记忆层——所有这些都是活跃的研究领域。事实上,赋予人工智能一种随时间压缩的“情景记忆”是一个已知的挑战,而解决这个问题将是迈向人工智能持续学习并可持续扩展知识库的一大飞跃。

结语

ChatGPT 目前的内存限制感觉像是权宜之计,未能充分发挥 AI 的威力。通过研究人类认知,我们发现有效的长期记忆并非存储无限量的原始数据,而是智能地压缩、整合并遗忘重要信息。人脑能够保留重要信息并节省存储空间,这正是我们长期记忆如此庞大和有效的原因。AI 要成为真正的长期合作伙伴,应该采用类似的策略:自动将过去的互动提炼成持久的洞察,而不是将这一负担转嫁给用户。“内存已满”的挫败感可以被一个能够随着使用、学习和记忆而优雅增长的系统所取代,该系统能够以灵活、类似人类的方式进行学习和记忆。采用这些原则不仅可以解决用户体验的痛点,还能为依赖这些工具的全体用户和开发者带来更强大、更个性化的 AI 体验。

Antoine 是一位富有远见的领导者,也是 Unite.AI 的创始合伙人,他对塑造和推动人工智能和机器人技术的未来有着坚定不移的热情。作为一名连续创业者,他相信人工智能将像电力一样颠覆社会,并经常对颠覆性技术和 AGI 的潜力赞不绝口。

作为一个 未来学家他致力于探索这些创新将如何塑造我们的世界。此外,他还是 证券一个专注于投资重新定义未来和重塑整个行业的尖端技术的平台。