一个在多个SOTA基准测试中表现卓越的企业级长期记忆操作系统
在AI Agent时代,记忆不再是简单的"存储与检索",而是需要理解、推理和演化的能力。EverMemOS(EverMind Memory Operating System)作为一个智能记忆操作系统,在多个权威基准测试中取得了突破性成绩:
更重要的是,EverMemOS提出了全新的记忆构建范式——从传统RAG的机械切分,转向LLM驱动的语义完整性记忆单元,让AI真正拥有"记忆"而非"缓存"。
与传统RAG系统按固定长度(如512 tokens)机械切分文本不同,EverMemOS引入了MemCell(记忆单元)概念。MemCell不是简单的文本片段,而是一个语义完整的结构化对象:
关键特性:
should_wait标志决定是否累积更多消息original_data存储完整消息列表,包含speaker_id、speaker_name等元信息semantic_memories字段预测用户未来行为变化(如"用户下周需要调整饮食习惯") EverMemOS采用三层记忆架构,每一层承担不同的认知职责:
| MemCell | memcells | ||
| Episode | episodic_memories | ||
| Profile | core_memories | ||
| Semantic Memory | semantic_memories |
与传统RAG的本质区别:
这种设计使得检索结果不再是碎片化的文本块,而是语义完整、结构化的记忆片段。
EverMemOS采用多数据库协同架构,每个数据库承担特定职责:
核心记忆类型(Episode、Profile等)采用同步写入MongoDB、Elasticsearch和Milvus:
优势:
EverMemOS采用Reciprocal Rank Fusion(RRF)融合Embedding和BM25结果,K值统一设置为60:
检索流程:
EverMemModel实现了将整个检索数据库连同查询一起输入模型的技术突破,在NQ320K(全文本)上达到:
QA任务表现:DSA方法直接在7.1M长度上下文中进行QA,无需Embedding检索,超越了Qwen3-Embedding-4B + Qwen3-4B-Instruct的RAG方法:
基于EverMemOS框架和GPT-4.1-mini模型,在LoCoMo数据集上实现92.3%的推理准确率(LLM-Judge评估),体现了三大核心优势:
Coherent Narrative(连贯叙事)
Evidence-Based Perception(基于证据的感知)
Living Profiles(动态演化画像)
EverMemReRank在两个多跳推理基准上达到SOTA:
| 2wiki | |||
| Hotpotqa |
核心技术:Event Log的多行格式化策略,将atomic_fact逐行展开:
这种格式使Reranker能够精确匹配到具体的原子事实,避免语义稀释。
EverMemOS支持将DeepInfra API替换为本地部署模型:
Embedding替换(BGE-M3):
Reranker替换(bge-reranker-v2):
LLM替换(vLLM部署的Qwen):
更换Embedding模型后,必须重新生成向量数据:
迁移脚本核心逻辑:
当前系统缺少tenant_id字段,企业部署需要以下改造:
1. 数据模型添加租户字段:
2. MongoDB索引调整:
3. API认证中间件:
EverMemOS通过层次化记忆架构、LLM驱动的边界检测和混合检索策略,重新定义了AI长期记忆系统的设计范式。它不仅在多个SOTA基准测试中证明了技术实力,更提供了开箱即用的企业级解决方案。
核心优势:
未来方向:
EverMemOS正在改变AI Agent与记忆交互的方式——从"检索数据库"到"对话记忆系统",让AI真正拥有记忆力而非存储器。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |