链载Ai

标题: 【技术】图解 详解:上下文工程 [打印本页]

作者: 链载Ai    时间: 昨天 21:33
标题: 【技术】图解 详解:上下文工程
最近走红的“上下文工程”(Context Engineering)到底是什么?跟提示工程什么区别?是新瓶装旧酒吗?
摘要:上下文负责铺路,而提示工程教你怎么走,提示工程是上下文工程的子集。

(1)图解
不想看文字?来,看漫画:
提示工程:

提示词工程(Prompting engineering)


而上下文工程(Context Engineering)
所以,二者区别:

总结:
上下文负责铺路,而提示工程教你怎么走。
提示工程是上下文工程的子集。
参考:小红书博主“机器坏人(AI版)”的漫画,https://www.xiaohongshu.com/explore/68778c21000000000d01a610
更确切的信息及图解:
上下文工程=提示词+用户画像+记忆+检索信息+RAG信息+MCP信息
除了上下文工程,近期还有另一个概念:MemOS,三者对比总结。

(2)详解
有耐心的,继续往下看。

使用Agent时,常常遇到棘手问题:


然而,问题的根源:未能向模型提供恰当上下文


随着LLM应用从单一提示词演变为复杂的、动态的智能体系统,“上下文工程”(Context Engineering)正迅速成为AI工程师重要技能。

Cognition 团队核心观点

“再聪明的模型,若不知上下文,也无法做出正确判断。”


智能体系统的失误,本质是LLM 失误

从第一性原理分析,LLM 失败主要源于两个方面:


随着模型能力的飞速发展,第二点成为更普遍的瓶颈。

上下文供给不足体现在:


LLM无法读取用户思想,如果不提供完成任务所需的关键信息,不可能知道这些信息的存在。

“垃圾进,垃圾出”(Garbage in, garbage out)原则。同样,仅有信息可能还不够。

在很多场景下,LLM需要借助工具来查询更多信息或执行某些动作。为LLM提供正确的工具,与提供正确的信息同等重要。

格式化至关重要:与人类沟通类似,如何向LLM传递信息,其格式会极大地影响结果。

一个简短但描述清晰的错误信息,远比一个庞大而杂乱的JSON数据块更容易让LLM理解和处理。这一点同样适用于工具的设计,工具的输入参数是否清晰、易于理解,直接决定了LLM能否有效使用。


提示词 → 上下文


前段时间, Andrej Karpathy等人提出,应该用Context Engineering替代Prompting Engineering的说法...

大模型应用技术从“提示词艺术”迈向“上下文科学”。

最近爆品,如Cursor,Manus等产品都表明

未来核心竞争力,不再是精妙的提示词,更是高质量、高效率的上下文

通过精心组织,为模型提供事实依据、注入持久记忆、并扩展其行动能力,有可能释放大模型的潜力,构建出新的有价值AI产品。

上下文工程


上下文工程(Context Engineering)核心定义:


深入理解:


提示工程 vs 上下文工程


为什么从“提示工程”(Prompt Engineering)转向“上下文工程”?

LLM应用早期,开发者专注于通过巧妙措辞诱导模型给出更好的答案。

但随着应用变得越来越复杂,共识逐渐形成:

提示工程上下文工程的子集。

即使有全部上下文信息,提示词组织、编排方式,仍然至关重要——提示工程范畴。

核心区别:

不同于传统 Prompt Engineering,Context Engineering 更关注系统级的动态上下文构建


上下文系统由多个关键部分组成


上下文工程是一个动态系统

复杂智能体系统从多个来源获取上下文:


将所有这些信息整合在一起,需要一个复杂的系统。

  1. 提供正确的信息与工具
  2. 格式化至关重要
  3. 自检:反复确认信息是否充分

而且必须动态,因为许多上下文信息是实时变化的。

因此,最终交付给LLM的提示词(Prompt)不是静态模板,而是由动态逻辑实时构建的。

好的上下文工程应该包括:

正确的信息与工具


进行上下文工程时,应反复确认:

这个问题能保持清醒,认识到LLM不是万能的,要为创造条件。同时,有助于区分两种主要的失败模式:

这两种失败模式的修复方案截然不同,准确定位问题是优化的第一步。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5