01 Claude Skills 的启示
前段时间,Anthropic 发布了 Claude Skills,很多人说这可能比 MCP 更重要。
为什么?因为 Skills 解决了一个根本问题:Token 消耗。
传统的 MCP 协议有个致命缺陷——GitHub 官方的 MCP 服务器就要消耗数万个上下文 token。再加上几个 MCP,LLM 基本就没空间做实际工作了。
而 Skills 呢?每个 Skill 在会话启动时只加载几十个 token 的元数据,只有当用户真正需要时才会加载完整内容。这种渐进式加载机制,让 AI 可以拥有庞大的技能库而不影响性能。
有意思的是,就在大家还在讨论 Skills 和 MCP 谁更有前景时,一个开源项目已经悄悄实现了两者的融合——Prompt Manager。
02 Prompt Manager 的巧妙思路
Prompt Manager 的核心思路很简单:能不能用 MCP 的架构,实现类似 Skills 的效果?
答案是:能,而且效果相当不错。
具体怎么做呢?通过"提示词模板 + MCP 工具"的组合,让静态的提示词变成可通过 API 调用的动态服务。
name: smart-document-processordescription: 智能文档处理助手,支持PDF解析、内容提取、格式转换和多文件批量处理messages: - role: user content: text: | 你是一个专业的文档处理助手。请帮我处理以下文档任务:
## 任务配置 处理模式: {{mode}} 源文件/目录: {{sourcePath}} 输出目录: {{outputDir}} 文件类型: {{fileType}}
## 处理要求 {{#if extractText}} - 提取文档中的文本内容 - 保留原始格式和结构 {{/if}} {{#if extractImages}} - 提取文档中的图片 - 图片保存为 PNG 格式 {{/if}} {{#if generateSummary}} - 生成文档摘要(300字以内) - 提取关键信息和要点 {{/if}} {{#if convertFormat}} - 转换为目标格式: {{targetFormat}} - 保持内容完整性 {{/if}}
## 处理流程 1. 首先使用 filesystem 工具扫描源目录,识别目标文件 2. 根据文件类型选择合适的处理工具 3. 执行文档解析和内容提取 4. 按要求生成输出文件 5. 将结果保存到指定输出目录
请按照上述流程处理,并在每个关键步骤报告进度。
arguments: - name: mode description: 处理模式:single(单文件) 或 batch(批量处理) type: string required: true - name: sourcePath description: 源文件路径或目录路径 type: string required: true - name: outputDir description: 输出目录路径 type: string required: true - name: fileType description: 文件类型:pdf, docx, xlsx 等 type: string required: true - name: extractText description: 是否提取文本内容 type: boolean required: false default: true - name: extractImages description: 是否提取图片 type: boolean required: false default: false - name: generateSummary description: 是否生成摘要 type: boolean required: false default: false - name: convertFormat description: 是否转换格式 type: boolean required: false default: false - name: targetFormat description: 目标格式(当convertFormat为true时必需) type: string required: false
这个提示词展示了几种关键特性:
- MCP 工具集成 - 提示词中直接引用了
filesystem 和 pdf-reader 等工具
- 条件逻辑 - 使用
{{#if}} 语法实现条件渲染
当用户调用这个提示词时,AI 会自动:
- 使用
tool://filesystem 扫描目录
- 调用
tool://pdf-reader 解析 PDF
这就是 Prompt Manager 的精髓:它不只是简单的模板替换,而是一个完整的 AI 工作流编排系统。
03 技术实现的核心架构
Prompt Manager 的架构设计很有意思,它没有简单地复制 Skills,而是找到了一条更适合自己的路。
核心是三层架构:
第一层是 提示词管理器。负责扫描、加载、验证所有的提示词文件。这里有个很聪明的设计——基于文件路径生成 SHA-256 哈希作为唯一 ID。这样既保证了唯一性,又支持版本管理。
第二层是 MCP 服务器。完全兼容 Anthropic 的 MCP 协议,提供了 prompts、toolm、thinking 三大核心工具。特别是那个 heartbeat-patch.js,解决了长时间连接的稳定性问题,这个细节很见功力。
第三层是 工具系统。这是最精彩的部分。Prompt Manager 实现了一个统一的工具运行时,支持四种模式:manual(查看手册)、execute(执行工具)、configure(配置环境)、log(查看日志)。
这种设计的妙处在于:它把提示词、工具、思考能力都统一在 MCP 协议下,既保持了标准化,又获得了灵活性。
04 Token 优化的实际效果
那么问题来了:这种方案真的能节省 Token 吗?
答案是肯定的。Prompt Manager 通过几个关键机制实现了 Token 优化:
首先是 延迟加载。和 Skills 一样,Prompt Manager 在会话启动时只加载提示词的元数据(名称、描述、参数),只有当用户真正调用时才加载完整内容。
其次是 参数化模板。原本需要重复输入的长篇提示词变成了可复用的模板,实际使用时只需要传递参数值。
更重要的是 智能工具描述生成。Prompt Manager 有个专门的 tool-description-generator-optimized.service.js,它能根据工具的元数据生成语义化的使用说明。AI 模型不需要加载完整的工具文档,就能理解如何使用工具。
实际测试数据显示:相比传统的把所有提示词都塞进上下文的方式,Prompt Manager 能节省 60-80% 的 Token 消耗。在处理大量提示词时,这个优势更加明显。
05 工具文档系统的创新
说到工具使用,这里有个很有意思的创新。
Prompt Manager 发现了一个痛点:用户在使用工具时,往往需要先了解工具的功能和用法,但传统的做法是要么把所有文档都加载到上下文中(消耗 Token),要么让用户自己去查文档(体验不好)。
它的解决方案是:动态工具文档系统。
每个工具都有一个标准化的元数据结构,包含 category(分类)、tags(标签)、scenarios(使用场景)、description(描述)等信息。系统会根据这些信息生成语义化的使用指南。
比如,当你调用 toolm 工具时,系统会先显示:
🛠️ ToolM 是 Prompt Manager 新一代工具系统运行时
## 何时使用 ToolM
### 快速决策(IF-THEN 规则):- IF 需要文件操作 → 使用 tool://filesystem- IF 需要读取 PDF → 使用 tool://pdf-reader- IF 需要处理 Excel → 使用 tool://excel-tool
这种设计让 AI 模型能快速理解何时使用哪个工具,而不需要阅读完整的文档。只有当真正需要使用某个工具时,才会加载详细的操作说明。
06 与 Claude Skills 的深度对比
现在让我们深入比较一下这两种方案。
Claude Skills 的优势在于简单直接——一个 Markdown 文件加上可选的脚本,就能定义一个技能。但这种简单也带来了限制:它主要是在 Claude 生态内使用,而且更偏向于"如何做"的指导。
Prompt Manager 则走了另一条路:它选择拥抱 MCP 协议的标准化,通过技术创新解决了 Token 消耗问题。这样做的好处是:
- 更好的兼容性 - 任何支持 MCP 协议的 AI 客户端都能使用
- 更高的性能 - 通过工程优化实现了接近 Skills 的 Token 效率
有意思的是,这两种方案其实不是竞争关系,而是互补的。就像有人说的:MCP 提供了"是什么"(工具和数据),Skills 提供了"怎么做"(方法论),而 Prompt Manager 则试图在两者之间找到最佳平衡点。
07 实际应用场景
说了这么多技术细节,Prompt Manager 在实际中有什么用呢?
对于开发团队来说,可以用它来标准化各种代码审查、重构、文档生成的提示词。不用每次都重新输入,直接调用对应的模板就行。
内容创作者可以内置标题生成、文案创作、播客脚本等提示词库,提高创作效率。
产品经理可以把需求分析、原型设计、项目管理等工作流程固化为提示词模板,让团队协作更高效。
还有一个很有意思的用法:企业可以用它来建设内部知识库。把各种业务流程、操作规范、最佳实践都做成提示词模板,新员工入职时就能快速上手。
08 对 AI 工具生态的思考
Prompt Manager 的出现,其实反映了一个更深层的趋势:AI 工具正在从"玩具"走向"工具"。
早期的 AI 应用更多是演示性质,大家关注的是"能不能做"。现在则更关注"怎么做得更好"、"怎么做得更高效"。
这种转变背后是用户需求的变化。随着 AI 在实际工作中的应用越来越深入,用户需要的不再是简单的功能,而是稳定、高效、可集成的解决方案。
从这个角度看,Prompt Manager 的探索很有价值。它没有简单地复制某个现有方案,而是根据实际需求,融合了多种技术的优点,找到了一条自己的路。
09 写在最后
Claude Skills 的发布确实让人兴奋,它展示了 AI 定制化的新可能。但技术的有趣之处就在于,往往没有标准答案。
Prompt Manager 用自己的方式回答了"如何高效管理 AI 能力"这个问题。它可能不是最简单的方案,也不是最标准的方案,但它是一个务实的方案。
在 AI 快速发展的今天,这种务实的创新可能比激进的革命更有价值。毕竟,最终能让用户受益的,不是那些听起来很酷的概念,而是真正能解决问题的工具。
如果你也在思考如何更好地管理和使用 AI 能力,不妨试试这个项目。也许你会发现,有时候最好的方案,往往藏在最不起眼的地方。
10 附注
|