ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">化繁为简,或许是AI进化的下一站!ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">在AI智能体激烈角逐,纷纷追求连接万物的时代,Anthropic为它的Claude带 来了一项看似简单、却可能影响深远的更新:ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: inherit;color: rgb(183, 110, 121);">Claude Skills(技能)。ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);"> ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">这并非又一个复杂的新协议,而是一个简单到极致的构想:ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: inherit;color: rgb(183, 110, 121);">一个文件夹,就是一项技能。它直指当前AI工具生态的核心痛点,并给出了一份优雅的解决方案。ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;padding-left: 8px;color: rgb(63, 63, 63);">MCP协议的 “烦恼”ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">在Skills登场前,我们必须先了解另一位主角:ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: inherit;color: rgb(183, 110, 121);">MCP(Model Context Protocol)。ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">你可以将它理解为AI调用外部工具的“USB协议标准”。它定义了一套严谨的Host(宿主)、Client(客户端)、Server(服务器)三层架构,让大模型能安全、标准化地操作代码解释器之外的一切——从GitHub到Slack,从数据库到邮件系统。协议一出,各大厂迅速跟进,一时间生态内涌现出大量“MCP Server商店”。 然而,繁荣之下,代价随之而来。 1. Token成了“奢侈品” 经实测,GitHub官方的MCP Server,仅其系统提示词(System Prompt)就超过了30k tokens。以Claude 3.5 Sonnet引以为傲的200k上下文窗口为基准,加载这一个工具就占去了15%的宝贵空间。 若用户再同时开启Slack、Gmail、Notion等常用工具,近三分之一的对话容量在用户说出第一句指令前,就已消耗殆尽。更关键的是,这些Token在对话初始化时被一次性占用且无法释放,无论你本次任务是否真的需要调用GitHub。 2. “杀鸡焉用牛刀”的反思 在研究AI编程助手(如Cursor,Trae)时,我发现一个有趣的现象:许多场景下,它们无需配置任何MCP工具。大模型本身的能力,辅以简单的CLI命令行调用,就足以解决大部分问题。 这让我们不禁思考:对于许多确定性的、内部的、轻量的任务,动用一整套MCP协议,是否有些“用力过猛”? Skills的 “极简主义”正是在这样的背景下,Claude Skills的设计哲学显得格外清晰:轻巧、动态、按需加载。 它究竟是什么?一句话概括:Skills是一个能让Claude动态加载专用指令、脚本和资源的框架。 而它的实体,简单得令人惊讶——一个符合特定结构的文件夹。 my_skill/ # 技能根目录 ├── SKILL.md # 【必需】技能说明书 ├── scripts/ # 【可选】脚本(Python/JS等) │ └── data_cleaner.py └── resources/ # 【可选】资源(模板、数据文件等) └── report_template.xlsx
一个技能,三样核心要素: - •Instructions (指令):在
SKILL.md中,告诉Claude“做什么”以及“如何做”。 - •Scripts (脚本):封装确定性逻辑,让Claude“一键执行”,而非“重新思考”。
- •Resources (资源):提供所需的模板、数据,作为技能的“弹药库”。
Skills核心工作原理这一切都归功于其精妙的渐进式披露(Progressive Disclosure)机制。这就像是与一位高效的图书管理员的对话,而非被淹没在书海之中。 1. 建立索引:只看“书名” 在对话开始时,Claude只会快速扫描所有技能的SKILL.md文件中的元数据(名称和描述)。每个技能仅消耗几十个tokens,瞬间建立起一个完整的“技能目录”。 2. 智能触发:按“书名”取书 当你提出“帮我分析一下这份销售数据并生成报表”时,Claude会立刻在“目录”中匹配到相关的数据处理的技能,然后自动触发它。 3. 精准加载:翻开“具体章节” 触发后,Claude才会加载SKILL.md的完整内容,获取详细指令。如果任务还需要填写特定表格,它会进一步只加载resources/文件夹中的那个Excel模板,而不是所有资源。 这种机制从根本上解决了MCP的Token浪费问题,让AI的“工作内存”能够全力服务于当前的核心任务推理。 Skills 进阶:从“理解”到“执行”Skills的另一大威力在于代码执行。 对于一些重复性、模式化的任务,让Claude动态生成代码并执行,其效率和成本远不如直接运行一个预先编写好的完美脚本。 - • 比如:一个“公众号排版”Skill,内置一个精心调校的Python脚本。你只需丢给它一篇Markdown草稿,Claude触发技能后,瞬间即可调用脚本,输出一份排版精美、符合你品牌规范的HTML内容。
- • 再比如:一个“数据透视”Skill,你只需说出“按地区和月份汇总销售额”,Claude便会运行内置的
pandas脚本,直接返回处理好的透视表,而不是生成一段可能需要调试的代码。
这实现了从“让AI思考并写代码”到“让AI直接调用成熟解决方案”的跃迁,更可靠、更快速、成本更低。 结语:简单,是一种力量Claude Skills的魅力,正在于其回归简单的设计哲学。它不追求连接万物,而是致力于将常用能力内化,以一种对计算资源最友好的方式呈现。 从软件工程的角度看,这完美践行了“逻辑与资源分离”的基本原则。这里没有复杂的协议,没有额外的服务器,文件系统本身就是最通用、最稳健的接口。 当然,Skills仍处于早期阶段。它本身不具备存储状态的能力,需要开发者自行对接外部数据库;目前也仍是Claude的“独家能力”。但我们有理由期待,这种优雅的设计会吸引更多厂商跟进。 或许不久之后,我们迎来的不是一个“MCP Server商店”,而是一个繁荣的“Skills生态市场”。 技术的未来,有时并非走向更复杂,而是变得更简单、更直接、更强大。 |