链载Ai

标题: 探讨如何构建具有可扩展长时记忆AI Agents相关的技术实现 [打印本页]

作者: 链载Ai    时间: 昨天 20:50
标题: 探讨如何构建具有可扩展长时记忆AI Agents相关的技术实现


探讨 AI Agents 长期记忆相关的技术实现,核心在于解决大型语言模型 (LLM)定上下文窗口的内在限制,使其能够在长时间、多轮次的对话中保持连贯性和一致性。缺乏这种持久性记忆能力导致 AI 代理遗忘用户偏好、重复信息并否定先前的事实。

构建一个能够超越有限上下文窗口的鲁棒 AI 记忆系统,需要择性地存储重要信息、整合相关概念并在需要时检索相关细节,这模仿了人类的认知过程。

(底层机制 两阶段内存流水线,用于提取、整合和检索最突出的对话事实,从而实现可扩展的长期推理。)

几种关键技术实现方法:

1、动态提取、整合和检索信息
2、基于图的记忆表示 (Graph-based Memory Representations)
3、其他基线方法中体现的技术概念

这些不同的技术实现方法在捕捉信息、表示知识和检索相关性方面各有侧重,并在性能(如准确性、延迟、Token 消耗)上表现出不同的权衡。评估这些方法的有效性通常需要专门的基准测试(如 LOCOMO) 和能够评估事实准确性和上下文适当性的指标(如 LLM-as-a-Judge),因为传统的词汇相似性指标存在局限性。

未来的研究方向则包括化这些结构化记忆的操作以减少延迟、探索合效率和关系表示的分层记忆架构,以及开发复杂的记忆整合机制

---以下为论文原始内容---

论文:https://arxiv.org/abs/2504.19413

长期记忆挑战

虽然最近的进展已经扩展了 GPT-4、Claude 3.7 Sonnet 和 Gemini 等模型中的上下文窗口,但仅仅增加窗口大小并不能完全解决长期记忆问题。现实世界的对话很少在主题上保持一致,因此很难从广泛的上下文窗口中检索相关信息。此外,更大的上下文窗口会导致计算成本增加和响应时间变慢,这使得它们在许多部署场景中不切实际。

已经提出了几种方法来解决这一挑战:

  1. 检索增强生成 (RAG):将对话历史存储为文档,并在需要时检索相关块。
  2. 记忆增强模型:创建专用的架构修改来支持持久记忆。
  3. 分层记忆系统:以类似于人类记忆系统的分层结构组织记忆。

然而,这些方法通常难以解决可扩展性、效率或在扩展对话中保持连贯推理能力的问题。

Mem0:以记忆为中心的架构

Mem0 是一种新颖的以记忆为中心的架构,旨在动态捕获、整合和检索正在进行的对话中的显著信息。该系统分两个主要阶段运行:

Mem0 管道3:Mem0 架构,展示了记忆系统的提取和更新阶段。

提取阶段当处理新的消息对(用户消息和助手响应)时,Mem0:

  1. 从对话历史记录中检索对话摘要和最近的消息
  2. 使用基于 LLM 的提取功能来识别新交流中的显著记忆
  3. 考虑对话的更广泛的上下文,仅提取相关和重要的信息

提取过程旨在具有选择性,仅捕获未来交互可能需要的信息,同时过滤掉琐碎或冗余的细节。

更新阶段对于每个提取的事实,Mem0:

  1. 评估其与现有记忆的一致性,以保持一致性并避免冗余
  2. 从数据库中检索语义上相似的记忆
  3. 通过函数调用接口(工具调用)将这些记忆呈现给LLM
  4. 确定适当的记忆管理操作:

这种方法允许动态的记忆管理,随着对话的进行而演变,类似于人类如何随着时间的推移巩固和更新他们的理解。

Mem0g:基于图的记忆表示

在Mem0架构的基础上,Mem0g引入了基于图的记忆表示,以捕获复杂的关系结构。在这个增强的系统中:

Mem0g Pipeline图4:具有基于图的记忆表示的Mem0g架构。

图结构记忆存储为有向标记图,具有:

  1. 实体提取器:从输入文本中识别关键实体及其类型
  2. 关系生成器:推导出实体之间有意义的连接,建立关系三元组(主语、谓语、宾语),以捕获语义结构冲突检测与解决在整合新信息时,系统:
  3. 识别现有图中潜在的冲突关系
  4. 使用基于LLM的更新解析器来确定是否应将某些关系标记为过时
  5. 保持知识图中的时间一致性

与平面记忆表示相比,这种结构化方法能够对复杂的、相互关联的信息进行更复杂的推理。

--- END ---







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5