随着大模型能力不断演进,开发者与其交互的方式也在发生深刻变化。从最初精雕细琢一条指令,到现在构建完整的上下文架构,我们正在经历从提示工程(Prompt Engineering)到上下文工程(Context Engineering)的演变。ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;margin: 0px 8px 1.5em;color: rgb(63, 63, 63);"> ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 14px;border-radius: 4px;display: block;margin: 0.1em auto 0.5em;" title="null"/>ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: none;padding: 1em;border-radius: 8px;color: rgba(0, 0, 0, 0.5);background: rgb(247, 247, 247);margin: 2em 8px;">ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 1em;letter-spacing: 0.1em;color: rgb(80, 80, 80);display: block;">“如今决定AI智能体成功或失败的关键因素,不再是模型本身,而是你提供给它的上下文质量。大多数智能体的失败,其实不再是模型的失败,而是上下文的失败。” by 宝玉ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 1.2em;font-weight: bold;display: table;margin: 2em auto 1em;padding: 0px 1em;border-bottom: 2px solid rgb(0, 152, 116);color: rgb(63, 63, 63);">什么是 Prompt Engineering?ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;margin: 1.5em 8px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">Prompt Engineering是早期在ChatGPT时代的产物,这意味着用户需要在聊天框里输入一些奇怪的内容,然后观察模型的输出效果,接着不断调整输入的提示词,直到满意为止。不过写Prompt没有统一的范式,只有一些模糊的经验可供参考,因此还诞生出很多提示词工程师的岗位。ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;margin: 1.5em 8px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">Prompt Engineering 的本质,是一句话搞定模型:“你是一位 X 专家,请像 Z 一样完成任务 Y。”它依赖语言的表达技巧,通过优化提示的措辞、结构、语气甚至加入几个示例(few-shot)来引导模型生成想要的输出。ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;margin: 1.5em 8px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">常见用途包括:ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;margin: 1.5em 8px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">● 写文案(如广告 slogan、邮件模板)ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;margin: 1.5em 8px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">● 模拟某个风格(如“像知乎大V一样发一条微博”)● 一次性生成代码片段或小脚本 Prompt Engineering 非常像“即兴写作”或“自然语言编程”,它是 LLM 使用的起点,但也有明显的局限性。 什么是 Context Engineering?Context Engineering,是 Prompt Engineering 的“进化版”,是LLM发展到如今智能体阶段的要求。  它不仅仅关注一句提示词,而是设计整个模型所感知到的信息——包括: ● 系统提示(System Prompt) ● 历史对话记录 ● 内存模块与用户画像(Memory) ● 文档检索(RAG / Retrieval Augmented Generation) ● 工具调用(Function Calling) ● 上下文窗口管理(Token Selection) 换句话说,Prompt Engineering 是在对话中“说什么”;Context Engineering 则是在决定“模型看到什么、什么时候看到、为什么要在意”。 Context Engineering 构建的是长期对话、一致性行为和任务自动化的基础架构。 举个例子说明两者的差异Prompt Engineering 场景:你问 ChatGPT: 你是产品经理,请用幽默风格总结“苹果 Vision Pro 的产品定位”。
这是一条经典的 Prompt Engineering,它可能一次就能给你一个风格不错的答案。 Context Engineering 场景:你构建一个企业内部助理,并为此设计了至少以下关键节点: ● 用户问问题前,模型自动从已有知识库中检索相似答案; ● 系统提示设定了对话风格和角色; ● 用户的过往提问会作为memory注入; ● 工具链决定模型在不确定时是否调用知识库或触发外部 API; ● 所有信息被按优先级动态注入上下文窗口。 在这个系统中,Prompt 只是一个输入,而整个上下文配置系统才是模型稳定表现的关键。 两者的对比与联系 | | | | | | | | | | | | | | | | | Memory、RAG、Tool、系统Prompt 等 | | | | | | |
写在最后:Prompt 是入口,Context 是未来Prompt Engineering 是我们与 LLM 交互的原始技巧,但随着智能体的开发,我们需要的不再是简单的文本生成器,而是一个智能助手。因此,Context Engineering可以说是现如今所有Agent不可缺少的设计思维。 正如 Andrej Karpathy 所说: “未来的提示,不再是prompt,而是context。”
|