返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

EverMemOS:重新定义AI长期记忆系统

[复制链接]
链载Ai 显示全部楼层 发表于 昨天 22:40 |阅读模式 打印 上一主题 下一主题

一个在多个SOTA基准测试中表现卓越的企业级长期记忆操作系统

引言

在AI Agent时代,记忆不再是简单的"存储与检索",而是需要理解、推理和演化的能力。EverMemOS(EverMind Memory Operating System)作为一个智能记忆操作系统,在多个权威基准测试中取得了突破性成绩:

  • NQ320K检索任务:Recall@1达到75.5%,刷新SOTA记录
  • LoCoMo推理基准:92.3%准确率,超越现有方法
  • 2wiki & Hotpotqa:ReRank模型分别达到0.758和0.7802的F1分数

更重要的是,EverMemOS提出了全新的记忆构建范式——从传统RAG的机械切分,转向LLM驱动的语义完整性记忆单元,让AI真正拥有"记忆"而非"缓存"。

一、核心创新:层次化记忆架构

1.1 MemCell:智能记忆的基石

与传统RAG系统按固定长度(如512 tokens)机械切分文本不同,EverMemOS引入了MemCell(记忆单元)概念。MemCell不是简单的文本片段,而是一个语义完整的结构化对象

关键特性

  1. LLM驱动的边界检测:通过prompt引导LLM判断对话是否形成完整主题,返回should_wait标志决定是否累积更多消息
  2. 保留对话上下文original_data存储完整消息列表,包含speaker_id、speaker_name等元信息
  3. 前瞻性语义联想semantic_memories字段预测用户未来行为变化(如"用户下周需要调整饮食习惯")

1.2 层次化记忆构建

EverMemOS采用三层记忆架构,每一层承担不同的认知职责:

记忆类型
MongoDB Collection
作用
典型场景
MemCellmemcells
原子记忆单元
构建材料,不直接检索
Episodeepisodic_memories
事件摘要
"上周讨论了项目进度"
Profilecore_memories
用户特征
"擅长Python,偏好敏捷开发"
Semantic Memorysemantic_memories
知识推理
"用户可能在下个月关注晋升机会"

与传统RAG的本质区别

  • 传统RAG:文本 → 机械切分 → Chunk → 直接检索
  • EverMemOS:对话 → LLM边界检测 → MemCell → 聚合成Episode → 检索Episode

这种设计使得检索结果不再是碎片化的文本块,而是语义完整、结构化的记忆片段

二、系统架构:四数据库协同设计

EverMemOS采用多数据库协同架构,每个数据库承担特定职责:

2.1 三重写入策略

核心记忆类型(Episode、Profile等)采用同步写入MongoDB、Elasticsearch和Milvus:

优势

  • MongoDB:灵活的文档存储,支持复杂查询和事务
  • Elasticsearch:高效的BM25关键词检索,处理精确匹配
  • Milvus:高性能向量检索,支持语义相似度搜索

2.2 混合检索:RRF融合

EverMemOS采用Reciprocal Rank Fusion(RRF)融合Embedding和BM25结果,K值统一设置为60

检索流程

三、突破性能表现

3.1 NQ320K:整库直接输入的检索

EverMemModel实现了将整个检索数据库连同查询一起输入模型的技术突破,在NQ320K(全文本)上达到:

  • Recall@1: 75.5%(训练集)
  • Recall@1: 66.49%(未见测试集)

QA任务表现:DSA方法直接在7.1M长度上下文中进行QA,无需Embedding检索,超越了Qwen3-Embedding-4B + Qwen3-4B-Instruct的RAG方法:

3.2 LoCoMo:92.3%的推理准确率

基于EverMemOS框架和GPT-4.1-mini模型,在LoCoMo数据集上实现92.3%的推理准确率(LLM-Judge评估),体现了三大核心优势:

Coherent Narrative(连贯叙事)

  • 自动链接对话片段形成完整主题上下文
  • 区分"项目A进度讨论"和"团队B战略规划"
  • 从碎片化短语到完整故事线

Evidence-Based Perception(基于证据的感知)

  • 主动捕获记忆与任务的深层关联
  • 示例:用户提问"推荐餐厅" → 系统回忆"两天前拔牙手术" → 推荐软食餐厅
  • 这是真正的情境感知

Living Profiles(动态演化画像)

  • 实时更新用户画像,而非静态标签
  • 偏好、语气、关注领域随交互自然演化
  • 不只是"记住你说过什么",而是"学习你是谁"

3.3 ReRank模型:刷新多跳推理SOTA

EverMemReRank在两个多跳推理基准上达到SOTA:

基准
EverMemReRank
HippoRag2
提升
2wiki
0.758
0.710
+4.8%
Hotpotqa
0.7802
0.755
+2.5%

核心技术:Event Log的多行格式化策略,将atomic_fact逐行展开:

这种格式使Reranker能够精确匹配到具体的原子事实,避免语义稀释。

四、生产部署实践

4.1 本地模型替换

EverMemOS支持将DeepInfra API替换为本地部署模型:

Embedding替换(BGE-M3)

Reranker替换(bge-reranker-v2)

LLM替换(vLLM部署的Qwen)

4.2 向量数据迁移

更换Embedding模型后,必须重新生成向量数据:

迁移脚本核心逻辑

4.3 多租户改造建议

当前系统缺少tenant_id字段,企业部署需要以下改造:

1. 数据模型添加租户字段

2. MongoDB索引调整

3. API认证中间件

五、总结与展望

EverMemOS通过层次化记忆架构LLM驱动的边界检测混合检索策略,重新定义了AI长期记忆系统的设计范式。它不仅在多个SOTA基准测试中证明了技术实力,更提供了开箱即用的企业级解决方案。

核心优势

  • 语义完整性:告别机械切分,拥抱智能记忆单元
  • 层次化构建:从原子MemCell到高阶记忆的自然演化
  • 混合检索:RRF融合结合精确匹配与语义理解
  • 灵活部署:支持本地模型替换,降低成本
  • SOTA性能:在NQ320K、LoCoMo、2wiki等多个基准领先

未来方向

  • 🔮 原生多租户支持与权限管理
  • 🔮 动态查询策略(根据查询类型自适应选择检索方式)
  • 🔮 更丰富的记忆类型(任务记忆、关系网络等)
  • 🔮 自动化评估框架与业务数据集成

EverMemOS正在改变AI Agent与记忆交互的方式——从"检索数据库"到"对话记忆系统",让AI真正拥有记忆力而非存储器

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ