OpenAI的产品负责人 Miquel 联合Piotr 发布了一份超全面的Context Engineering 深度指南 (原文付费,主要是图多,还给了例子~)
简单说,Context Engineering 的核心是构建一套系统,高效地为LLM的上下文窗口(Context Window)填充最优质的内容,从而最大化模型的性能。
如果你觉得提示词工程(Prompt Engineering)就是全部,那格局就小了。
提示词工程只是在用户与AI交互的最后一环做文章。
而上下文工程是一个更广阔的战场,它涵盖了在生成提示词之前的所有准备活动——从数据检索、筛选到信息组装,它是一个完整的系统工程。
那么,我们到底在给模型的上下文中“喂”些什么呢?共有6种核心类型:
这6种核心内容共同构成了一个AI Agent的“世界观”和“行动力”。
聊到上下文,很多人第一反应就是RAG(检索增强生成)。RAG是上下文工程中最关键的一环,但它不是全部。
一个完整的RAG流程通常分为三步:
上下文工程主要关注前两步,即“检索”和“组装”。它决定了最终送到LLM的内容质量如何。
信息检索技术本身也在疯狂进化。别再以为RAG就是简单地做个向量检索了,我们来快速扒一扒它的几种主流范式。
这个章节是个带交互的图,完全免费,地址在这: https://rag.productcompass.pm/
最基础的版本,直接“检索+生成”,简单粗暴,效果也最拉胯。
进阶版,加入了“查询重写”和“结果重排”,先优化问题,再筛选答案,质量更高。
它不检索,而是提前把可能用到的信息“缓存”到上下文里。适合数据稳定且上下文窗口够大的场景。
大力出奇迹,把多种检索方法(向量、关键词、知识图谱等)全用上,追求最全面的信息。
它先让LLM根据你的问题,脑补一篇“完美的答案”(假设性文档),然后再用这个脑补的答案去匹配真实文档,据说能解决查询和文档之间的语义鸿沟。
在这里,AI Agent会自己决定何时、何地、如何去检索信息,它能进行动态规划和多步推理。简单来说,AI从一个被动的查询者,变成了主动的思考者和决策者。
找到了信息,怎么“喂”给模型又是一门学问。这就是上下文组装(Context Assembly)要解决的问题。
目标很简单:提供最精简、最相关、结构最清晰的信息。
这需要一系列技术,比如信息压缩、重新排序、格式化等。
例如,使用XML这样的结构化格式,可以清晰地划分不同类型的上下文,极大地帮助模型理解任务。
作者提供的lovable bug fixing Agent的示例:https://github.com/phuryn/examples/blob/main/prompts/context_engineering/bug_fixing_agent_context.xml
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |