ingFang SC", Cambria, Cochin, Georgia, serif;font-size: medium;text-wrap: wrap;"> ingFang SC", Cambria, Cochin, Georgia, serif;font-size: medium;text-wrap: wrap;">人工智能(AI)聊天机器人常常在记忆方面遇到困难,无论是在不同的对话之间,还是在同一对话中。然而,一个开源框架可能会改变这一现状。ingFang SC", Cambria, Cochin, Georgia, serif;font-size: medium;text-wrap: wrap;">如果你与像OpenAI的ChatGPT这样的大型语言模型进行长时间的对话,它会开始忘记重要细节,尤其是当对话超过400万字时。这时,它的表现会迅速变差。ingFang SC", Cambria, Cochin, Georgia, serif;font-size: medium;text-wrap: wrap;">例如,医疗AI助手使用过去对话中的信息来帮助做出准确的临床诊断。因此,如果大型语言模型无法记住长期细节,它们可能会错过重要的疾病症状,从而做出不够准确的诊断。ingFang SC", Cambria, Cochin, Georgia, serif;font-size: medium;text-wrap: wrap;">为了解决AI模型缺乏长期记忆和个性化能力的问题,我介绍了Mem0。它适用于需要长期记忆和上下文保留的AI应用程序,如聊天机器人和智能助手。ingFang SC", Cambria, Cochin, Georgia, serif;font-size: medium;text-wrap: wrap;">在这个故事中,我将提供一个易于理解的Mem0概述,介绍Mem0的独特之处,Mem0与Rag的不同之处,甚至如何构建一个实际的应用程序。ingFang SC", Cambria, Cochin, Georgia, serif;letter-spacing: normal;text-wrap: wrap;">什么是 Mem0?ingFang SC", Cambria, Cochin, Georgia, serif;font-size: medium;text-wrap: wrap;">Mem0 是一个开源项目,旨在为大型语言模型(LLMs)设计一个创新的内存层,以增强各种应用中的个性化 AI 体验,使 AI 聊天机器人能够记住用户偏好和先前交互的上下文,从而使 AI 交互随着时间的推移变得更加相关和吸引人,并使全球的开发者和用户更容易使用复杂的 AI 工具。ingFang SC", Cambria, Cochin, Georgia, serif;font-size: medium;text-wrap: wrap;">Mem0 的内存层使用先进的算法,如 GPT-4,以及高效的数据结构,如向量数据库,快速存储和检索信息。ingFang SC", Cambria, Cochin, Georgia, serif;font-size: medium;text-wrap: wrap;">Mem0 是一个尖端的长期记忆解决方案,适用于大型语言模型(LLMs),使个性化能够贯穿整个 GenAI 堆栈,允许 LLM 回忆过去的交互,并提供根据每个用户变化的定制响应。Mem0 的独特之处简单来说,Mem0 为大型语言模型提供了一个智能的、自我改进的记忆层,使得在各类应用中能够实现个性化的 AI 体验。主要特点包括: 自我改进的记忆:系统从用户互动中学习,并随着时间的推移不断改进。 跨平台一致性:在不同的 AI 平台和应用中提供一致的体验。 集中式记忆管理:通过 API,轻松存储和管理不同类型的记忆(长期、短期、语义和情节),适用于个人用户、代理和会话。
RAG 与 Mem0Mem0 是 RAG 发展的下一步,具有以下关键区别: 实体关系:Mem0 理解并连接不同交互中的实体,而 RAG 仅从静态文档中检索信息。这使得 Mem0 对上下文和关系有更深刻的理解。 相关性与衰减:Mem0 优先考虑最近的交互,并逐渐遗忘过时的信息,确保响应的准确性和时效性。 上下文连续性:Mem0 在多个会话中保留信息,保持对话的连续性,这对于长期参与至关重要,例如虚拟伴侣或个性化学习助手。 自适应学习:Mem0 根据用户的交互和反馈改善个性化,使记忆随着时间的推移变得更加准确和相关。 动态更新:Mem0 可以根据新的信息和交互更新其记忆,而 RAG 则依赖于静态数据。这允许实时调整和改进,增强用户体验。
这些先进的记忆功能使 Mem0 成为开发人员创建个性化和上下文感知 AI 应用程序的强大工具。 如何初始化 Mem0要使用 Mem0,您首先需要安装必要的 Python 包。具体来说,安装 Mem0 和openai。这些包是充分利用 Mem0 功能所必需的。 pip install mem0ai , openai
Mem0 的强大不仅体现在其简单的 API,还体现在其灵活的配置选项上。让我们看看如何进行高级配置: import os from mem0 import Memory
os.environ["OPENAI_API_KEY"] = "your_api_key" os.environ["OPENAI_BASE_URL"] = "your_base_url"
config = { "llm": { "provider": "openai", "config": { "model": "gpt-4o-mini", "temperature": 0.2, "max_tokens": 1500, } }, "history_db_path": "history.db" }
m = Memory.from_config(config)
此配置代码演示了 Mem0 的几个关键特性: 灵活的 LLM 集成:Mem0 可以与不同的 LLM 提供商集成,这里我们使用 OpenAI 的 GPT-4o-mini。 自定义模型参数:您可以根据需要调整模型参数,例如温度和 max_tokens。 本地历史存储:通过指定history_db_path,Mem0 可以在本地数据库中保存历史记录,确保数据的持久性和隐私。
记忆存储与检索result = m.add("I am working on improving my tennis skills. Suggest some online courses.", user_id="alice", metadata={"category": "hobbies"})
all_memories = m.get_all()
# print(all_memories)
memory_id = all_memories[0]["id"]
specific_memory = m.get(memory_id)
related_memories = m.search(query="What are Alice's hobbies?", user_id="alice")
Mem0的记忆系统可以存储简单的文本信息,并通过元数据添加上下文信息,从而使检索更加准确和有意义。 内存更新与历史跟踪result = m.update(memory_id=memory_id, data="Likes to play tennis on weekends")
history = m.history(memory_id=memory_id)
Mem0 不仅允许内存更新,还保留内存的历史版本。这个功能对于理解用户偏好的变化或跟踪 AI 系统的决策过程至关重要。 内存管理m.delete(memory_id=memory_id) m.delete_all(user_id="alice") m.reset()
Mem0 提供了细粒度的内存管理功能,可以删除单个内存、清除特定用户的所有内存,甚至重置整个系统。这为开发者提供了极大的灵活性,特别是在处理隐私敏感数据时。 案例演示:AI代理助手我们使用Mem0创建个性化的客户服务助手AI代理。客户支持AI代理利用Mem0在互动过程中保留信息,从而提供个性化和高效的支持体验。 配置:我们创建一个客户支持 AI 代理的实例,以设置内存和 OpenAI,然后我们使用 OpenAI 和内存数据库的参数设置配置,它使用给定的配置创建一个内存对象。 class CustomerSupportAIAgent: def __init__(self): """ Initialize CustomerSupportAIAgent, configure memory and OpenAI client. """ config = { "llm": { "provider": "openai", "config": { "model": "gpt-4o-mini", "temperature": 0.2, "max_tokens": 1500, } }, "history_db_path": "history.db" } self.memory = Memory.from_config(config) self.client = OpenAI() self.app_id = "customer-support"
处理查询:def handle_query(self, query, user_id=None): """ 处理客户查询并将相关信息存储在内存中。
:param query: 要处理的客户查询。 :param user_id: 可选的用户 ID,用于与内存关联。 """ # 向 AI 发送流式聊天完成请求 stream = self.client.chat.completions.create( model="gpt-4", stream=True, messages=[ {"role": "system", "content": "You are a customer support AI agent."}, {"role": "user", "content": query} ] ) # 将查询存储在内存中 self.memory.add(query, user_id=user_id, metadata={"app_id": self.app_id})
# 实时打印 AI 的响应 for chunk in stream: if chunk.choices[0].delta.content is not None: print(chunk.choices[0].delta.content, end="")
获取记忆 def get_memories(self, user_id=None): """ Retrieve all memories associated with a given customer ID.
:param user_id: Optional user ID to filter memories. :return: List of memories. """ return self.memory.get_all(user_id=user_id)
您可以随时使用以下代码获取所有记忆: memories = support_agent.get_memories(user_id=customer_id) for m in memories: print(m['text'])
关键点初始化:CustomerSupportAIAgent 类使用必要的内存配置和 OpenAI 客户端设置进行初始化。 处理查询:handle_query 方法将查询发送给 AI,并将相关信息存储在内存中。 获取记忆:get_memories 方法获取与客户相关的所有存储记忆。
from openai import OpenAI from mem0 import Memory import os
# Set OpenAI API key os.environ["OPENAI_API_KEY"] = "Your_api" os.environ["OPENAI_BASE_URL"] = "https://api.openai.com/v1"
class CustomerSupportAIAgent: def __init__(self): """ Initialize CustomerSupportAIAgent, configure memory and OpenAI client. """tomer config = { "llm": { "provider": "openai", "config": { "model": "gpt-4o-mini", "temperature": 0.2, "max_tokens": 1500, } }, "history_db_path": "history.db" } self.memory = Memory.from_config(config) self.client = OpenAI() self.app_id = "customer-support"
def handle_query(self, query, user_id=None): """ Handle customer query and store related information in memory.
:param query: The customer query to process. :param user_id: Optional user ID to associate with memory. """ # Send a streaming chat completion request to AI stream = self.client.chat.completions.create( model="gpt-4", stream=True, messages=[ {"role": "system", "content": "You are a customer support AI agent."}, {"role": "user", "content": query} ] ) # Store the query in memory self.memory.add(query, user_id=user_id, metadata={"app_id": self.app_id})
# Print AI's response in real-time for chunk in stream: if chunk.choices[0].delta.content is not None: print(chunk.choices[0].delta.content, end="")
def get_memories(self, user_id=None): """ Retrieve all memories associated with a given customer ID.
:param user_id: Optional user ID to filter memories. :return: List of memories. """ return self.memory.get_all(user_id=user_id)
# Instantiate CustomerSupportAIAgent support_agent = CustomerSupportAIAgent()
# Define a customer ID customer_id = "learning-AI-from-scratch"
# Handle customer query support_agent.handle_query("I need help with my recent order. It hasn't arrived yet.", user_id=customer_id)
memories = support_agent.get_memories(user_id=customer_id) for m in memories: print(m['text'])
import os from mem0 import Memory
os.environ["OPENAI_API_KEY"] = "" os.environ["OPENAI_BASE_URL"] = "https://api.openai.com/v1"
config = { "llm": { "provider": "openai", "config": { "model": "gpt-4o-mini", "temperature": 0.2, "max_tokens": 1500, } }, "history_db_path": "history.db" }
m = Memory.from_config(config)
result = m.add("I am working on improving my tennis skills. Suggest some online courses.", user_id="alice", metadata={"category": "hobbies"})
# Created memory --> 'Improving her tennis skills.' and 'Looking for online suggestions.' # print(result)
all_memories = m.get_all()
# print(all_memories)
memory_id = all_memories[0]["id"]
specific_memory = m.get(memory_id)
related_memories = m.search(query="What are Alice's hobbies?", user_id="alice")
result = m.update(memory_id=memory_id, data="Likes to play tennis on weekends")
history = m.history(memory_id=memory_id)
m.delete(memory_id=memory_id) m.delete_all(user_id="alice") m.reset()
结论Mem0 为 AI 应用开发提供了强大而灵活的内存系统。通过合理的配置和创新的应用,开发者可以构建具有持久内存、上下文理解和情感智能的 AI 系统。这不仅改善了用户体验,还为 AI 应用开辟了新的可能性。 随着 AI 技术的不断发展,像 Mem0 这样的智能内存系统将成为构建下一代 AI 应用的关键组成部分。
|