链载Ai

标题: 【Agent专题】上下文工程:Context Engineering爆火!唤醒大模型“心智”,AI智能体落地的关键武器来了 [打印本页]

作者: 链载Ai    时间: 昨天 21:28
标题: 【Agent专题】上下文工程:Context Engineering爆火!唤醒大模型“心智”,AI智能体落地的关键武器来了

随着大语言模型(LLM)能力的不断跃升,AI 智能体正在从纯对话系统迈向更复杂的多轮推理、多工具协同与长期任务执行。

而支撑这一演化的“幕后主角”,正是一个技术门槛日益提升的新领域:上下文工程(Context Engineering)。继 Vibe Coding(氛围编程)火了之后,AI圈又迎来一股新的技术热潮。

这一次,是由前特斯拉 AI 总监、深度学习布道者Andrej Karpathy亲自点燃的火。他在一次演讲中强调:“如果你想真正掌控一个大语言模型的行为,不是去微调权重,而是掌控它的‘心智世界’——你提供给它的上下文。”

在构建 AI 智能体的过程中,“上下文”不仅仅是几个提示词的组合,更是构成其“认知宇宙”的核心素材。它包含模型当前能“看到”的信息(如任务指令、外部知识、历史轨迹),也决定了模型“如何看到”(结构化与否)、“何时看到”(静态注入或动态更新)。

正如 Andrej Karpathy 所说:“LLM 是新的计算平台,模型本体就像 CPU,而上下文窗口就像 RAM。你无法重新训练模型每次适配具体任务,但你可以用上下文工程去控制它‘思考的材料’。”

于是,一个全新的工程范式被推上风口浪尖:Context Engineering(上下文工程)

上下文工程是一门集艺术与科学于一体的学问,目标是高效填充 LLM 的上下文窗口,使其在每一步任务执行中都拥有“刚刚好”的信息量。它不仅涉及信息的选择、组织与注入方式,还关注上下文的动态性、可扩展性与准确性。

具体而言,构建 AI 智能体过程中所涉及的上下文类型包括:

由于 LLM 的上下文窗口资源有限(即使扩展至百万 tokens 也依旧存在边界),不加选择地注入上下文将导致成本上升、响应延迟、性能退化甚至幻觉增强。因此,对上下文的管理与设计,必须借助系统化策略。

四大上下文工程策略详解:写、选、压缩、隔离。

1. 写上下文(Write Context)

写上下文是指将关键任务信息保存在上下文窗口之外,但又可被模型间接利用的手段,类似人类“写便签”、“做笔记”的行为。

2. 选上下文(Select Context)

选上下文是将最相关的信息拉入当前上下文窗口。它是上下文工程中最典型的动态部分,涵盖便签、记忆、工具与知识四种维度:

3. 压缩上下文(Compress Context)

压缩上下文用于精简冗余 tokens,通过“摘要”和“修剪”两类方式实现:

4. 隔离上下文(Isolate Context)

隔离上下文是将任务上下文拆分为多个“独立空间”,实现多 Agent 协作、环境分区或状态模块化:


上下文工程已逐步成为 AI 智能体设计的核心工程分支。无论是 Anthropic 的研究,OpenAI 的产品落地,还是 LangChain/LangGraph 等开发框架的演进,都在强调一个趋势:

上下文,不只是提示词,它是智能体的“工作内存”、“知识总线”与“行为约束”。

未来,随着工具生态扩张、多模态输入爆发与任务持续增长,AI 智能体的上下文管理将走向更自动化、更智能、更语义化。

Context Engineering 将从人工手工选择,进化为“智能上下文调度器”,成为每一个 AI 开发者的核心能力之一。

参考原文:https://blog.langchain.com/context-engineering-for-agents/






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5