|
记忆是AI系统的基本组成部分,尤其是对于基于LLMs的Agents。首次将记忆表示分为三类:参数化记忆、上下文结构化记忆和上下文非结构化记忆,并介绍了六种基本的记忆操作:巩固、更新、索引、遗忘、检索和压缩。盘点了几十种记忆框架、产品、应用!通过将这些操作系统地映射到长期记忆、长上下文记忆、参数修改和多源记忆等最相关的研究主题中,从原子操作和表示类型的视角重新审视记忆系统,为AI中与记忆相关的研究、基准数据集和工具提供了一个结构化和动态的视角。 详细介绍了AI系统中记忆的分类体系,将记忆分为三种主要类型:参数化记忆(Parametric Memory)、上下文结构化记忆(Contextual Structured Memory)和上下文非结构化记忆(Contextual Unstructured Memory)。以下是该部分的内容总结: 1.1 参数化记忆1.2 上下文非结构化记忆1.3 上下文结构化记忆详细介绍了AI系统中记忆操作的分类和功能。这些操作被分为两大类:记忆管理(Memory Management)和记忆利用(Memory Utilization)。 2.1 记忆管理记忆管理涉及如何存储、维护和修剪记忆,以支持记忆在与外部环境交互过程中的有效使用。记忆管理包括以下四种核心操作: Consolidation(巩固):
定义:将短期经验转化为持久记忆,例如将对话历史编码为模型参数、知识图谱或知识库。 功能:支持持续学习、个性化、外部记忆库构建和知识图谱构建。 应用场景:在多轮对话系统中,将对话历史整合到持久记忆中,以便在未来的对话中使用。 Indexing(索引): 定义:构建辅助代码(如实体、属性或基于内容的表示),以便高效检索存储的记忆。 功能:支持可扩展的检索,包括符号、神经和混合记忆系统。 应用场景:在大规模记忆库中,通过索引快速定位和检索相关信息。
Updating(更新): Forgetting(遗忘): 定义:有选择性地抑制可能过时、无关或有害的记忆内容。 功能:通过遗忘技术(如修改模型参数以擦除特定知识)或基于时间的删除和语义过滤来丢弃不再相关的内容。 应用场景:在处理敏感信息时,确保隐私和安全,同时减少记忆干扰。
2.2 记忆利用记忆利用涉及在推理过程中检索和使用存储的记忆,以支持下游任务(如响应生成、视觉定位或意图预测)。记忆利用包括以下两种操作: Retrieval(检索):
Compression(压缩): 定义:在保持关键信息的同时减少记忆大小,以便在有限的上下文窗口中高效使用。 功能:通过预输入压缩(如对长上下文输入进行评分、过滤或总结)或后检索压缩(如在模型推理前对检索到的内容进行压缩)来优化上下文使用。 应用场景:在处理长文本输入时,通过压缩减少计算负担,同时保留关键信息。
探讨了如何将前面介绍的记忆操作(巩固、索引、更新、遗忘、检索、压缩)应用于实际的系统级研究主题。这些主题涵盖了长期记忆、长上下文记忆、参数化记忆修改和多源记忆等多个方面。 3.1 长期记忆长期记忆是指通过与环境的交互而持久存储的信息,支持跨会话的复杂任务和个性化交互。 管理(Management): 巩固(Consolidation):将短期记忆转化为长期记忆,例如通过对话历史的总结或编码。 索引(Indexing):构建记忆索引以支持高效检索,例如通过知识图谱或时间线索引。 更新(Updating):根据新信息更新长期记忆,例如通过对话历史的动态编辑。 遗忘(Forgetting):有选择性地移除过时或不相关的记忆,例如通过时间衰减或用户反馈。
利用(Utilization): 检索(Retrieval):根据当前输入和上下文检索相关记忆,例如通过多跳图检索或基于事件的检索。 整合(Integration):将检索到的记忆与模型上下文结合,支持连贯的推理和决策。 生成(Generation):基于整合的记忆生成响应,例如通过多跳推理或反馈引导的生成。
个性化(Personalization):
3.2 长上下文记忆长上下文记忆涉及处理和利用大量的上下文信息,以支持长文本理解和生成。 3.3 参数化记忆修改参数化记忆修改涉及对模型内部参数的动态调整,以适应新的知识或任务需求。 3.4 多源记忆多源记忆涉及整合来自不同来源(如文本、知识图谱、多模态输入)的信息,以支持更丰富的推理和决策。 https://arxiv.org/pdf/2505.00675RethinkingMemoryinAI:Taxonomy,Operations,Topics,andFutureDirectionshttps://knowledge-representation.org/j.z.pan/
|