链载Ai

标题: 上下文不等于记忆:从单Agent到多Agent协作,记忆系统是关键 [打印本页]

作者: 链载Ai    时间: 昨天 17:13
标题: 上下文不等于记忆:从单Agent到多Agent协作,记忆系统是关键

开篇

在Agent的浪潮中,我们经历了一次又一次的认知迭代。

最初是提示工程,我们学习如何更好地提问;随后是上下文工程,随着窗口从8k卷到1M,我们误以为塞进去就是记住了。但当Manus、Anthropic 等团队开始引入file system和agent skill等概念后,上下文工程的边界又变得日益模糊。😳

最近看了AWS re:Invent 2025 中关于memory的一场技术演讲以及MongoDB的一篇技术博客,让我对上下文和记忆这两者有了更清晰的认知。

“上下文(Context)不等于记忆(Memory)。”


“大多数 Agent 的失败,不是推理的失败,而是记忆的失败。”


“因为我们正在试图用本质上无状态的大语言模型,去解决高度有状态的现实世界问题。”


“要构建能够长期运行、处理复杂任务甚至多智能体协作的系统,我们必须跨越上下文工程,正式迈入记忆工程。”

这篇文章是我对视频和博客以及之前自己零散的理解做的一次梳理,如果你也对memory有些困惑,希望这篇文章可以给你一些帮助~😊

原视频和原文链接如下~:https://www.youtube.com/watch?v=asWTC3oc-SA、https://www.mongodb.com/company/blog/technical/why-multi-agent-systems-need-memory-engineering(演讲者与作者都是Mikiko Bazeley)。以下如果有理解错误的地方,恳请大家指正。



LLM的内生局限与破局


在谈论记忆之前,我们需要先认清 LLM 的本质。作为一个推理引擎,它在记忆层面存在三个结构性缺陷:

  1. 参数记忆的静态性:对于模型来说,世界在训练截止日那天就停止了。

  2. 上下文窗口的临时性:上下文窗口虽然变大了,但它本质上只是工作记忆。一旦会话结束或超出窗口限制,信息就会瞬间消失。

  3. 无状态本质:LLM本身没有跨会话的持久状态概念。它不知道你是谁,除非你在每一次交互中都重新告诉它。


更糟糕的是,即便我们强行塞入海量上下文,真正被有效利用的部分往往只有20-30%。随着输入长度增加,模型的注意力会分散,导致Lost in the Middle,连简单的指令遵循能力都会退化。

那么该如何解决呢?

我们可以向人类的认知架构取取经。👇

人类大脑是一个极强的CPU,但我们的工作记忆(RAM)非常有限。我们之所以能处理复杂任务,是因为我们拥有强大的外置认知层——笔记、书籍、数据库。我们不强求记住所有,而是擅长索引和检索。

AI Agent 的进化方向正是如此:从「全量上下文」转向「外挂记忆库」。

这意味着,我们不再追求把所有信息一次性塞进prompt,而是构建一套持久化的记忆系统。这套系统的价值在于连续性:它能确保 Agent 在与用户的第 100 次交互时,依然能精准调用第 1 次交互时留下的关键线索,从而产生真正的默契。



走出误区:从上下文工程到记忆工程


这是最容易混淆的概念。下面明确一下定义~

如上图所示,上下文工程记忆工程是紧密协作但截然不同的两个领域:


上下文工程的现状与瓶颈

目前许多Agent开发仍停留在上下文工程阶段。我们通过RAG、prompt优化等手段,试图在有限的窗口内塞入更多信息。

但上下文工程面临着垃圾场效应。

如图所示,随着对话进行,上下文窗口会迅速变成一个充满了提示词、工具调用结果、错误尝试和无关元数据的垃圾场。这不仅极其昂贵(Token 成本爆炸),还会引入噪音,导致模型幻觉。

要解决这个问题,仅仅优化怎么塞是不够的,我们需要优化存什么——这就引出了记忆工程。👇



记忆的进阶:从私人助理到智能团队


既然无限堆叠上下文行不通,那么就可以针对不同的Agent形态,设计差异化的记忆架构。根据MongoDB演讲者的定义,AI Agent主要有三种应用模式,它们对记忆的要求层层递进:

1、助手模式:解决连贯性

    2、工作流模式:解决鲁棒性

      3、多智能体(Deep Research)模式:解决一致性

      这里是记忆工程真正的挑战,从构建单一助手转向多智能体系统时,对记忆的需求发生了质的飞跃。

      研究显示,多智能体系统的失败率高达 40%-80%,其中大量的失败源于智能体间的不对齐。具体的失败模式包括:

      解决这些问题的唯一途径,就是构建一个结构化的、共享的记忆工程体系。👇



      记忆类型解剖:分层管理


      我们不能把所有数据一股脑丢进数据库,要像人类的大脑一样,对记忆进行精密的分层管理。

      如上图可以清晰地看到,一个成熟的记忆系统由三大板块构成:短期记忆 (STM)长期记忆 (LTM)以及连接两者的协调机制。👇

      1、短期记忆 (STM):系统的草稿纸

      这是Agent的前台接待处,负责处理高频、瞬时的信息流。

      2、长期记忆 (LTM):系统的硬盘

      这是 Agent 产生智能积累的核心区域。随着时间推移,Agent会越来越聪明,全靠这一层~


      3、架构升级:从个人笔记到团队白板

      当场景升级到多智能体协作时,仅仅只有个体的STM和LTM是不够的。我们需要引入第三层维度

      Mikiko Bazeley提出的多智能体记忆架构(如下图所示),清晰地展示了如何通过引入外部共享记忆,解决团队协作难题。

      在多Agent环境下,记忆工程面临三个全新的挑战:一致性、隔离性与并发性

      (1)共享一致性:引入白板机制

      👉 这是团队的实时会议室。

      (2)跨Agent协调:确立共识机制

      👉这是团队的公司法和SOP。

      (3)隔离与隐私:独立的上下文窗口

      👉虽然有共享,但每个Agent依然保留独立的短期内部记忆

      财务Agent的草稿纸上不应该出现营销 Agent的头脑风暴记录。保持上下文的纯净和隔离,是防止逻辑干扰和幻觉的关键。



      记忆工程的核心:从生命周期到五大支柱


      明白了记忆的分类(存什么),接下来的核心问题是:怎么存和怎么管?

      记忆工程绝不仅仅是把数据丢进数据库。它是一门复杂的系统设计学科,让Agent像生物一样,建立起从原始数据到智慧经验的完整转换管道。

      1、数据炼金:记忆的生命周期

      一个成熟的记忆系统,数据不再是静态的记录,而是一条流动的数据流。如下图所示,原始数据需要经历一个完整的转换管道,才能成为可用的记忆。

      在这个管道中,每一个环节都至关重要:

      1. 聚合与过滤






      欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5