链载Ai

标题: 大语言模型与AI智能体中的上下文工程(Context Engineering) [打印本页]

作者: 链载Ai    时间: 昨天 21:47
标题: 大语言模型与AI智能体中的上下文工程(Context Engineering)

ingFang SC";font-size: medium;font-variant-ligatures: normal;orphans: 2;widows: 2;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">在人工智能快速发展的浪潮中,上下文工程(Context Engineering)正逐渐成为解锁大语言模型(LLM)潜能的关键技术。这项新兴学科专注于设计和构建动态系统,能够在恰当的时机为LLM汇集所有相关信息、工具和数据。正如OpenAI前研究员Andrej Karpathy所言,上下文工程是"一门精妙的艺术与科学,旨在为下一步操作在上下文窗口中填充恰好合适的信息"。它远不止于编写优质指令,而是精心打造LLM在每次推理时所"看到"的完整环境,相当于为模型配备了一位专属的AI"辅助教练",持续提供相关事实、记忆和工具,以生成准确、有依据且符合上下文的输出。

ingFang SC";font-variant-ligatures: normal;orphans: 2;widows: 2;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial; ">上下文工程的核心价值与挑战

ingFang SC";font-size: medium;font-variant-ligatures: normal;orphans: 2;widows: 2;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">随着自主AI智能体的兴起,上下文工程的重要性日益凸显。这些智能体必须在漫长任务中交错进行推理步骤、工具调用和记忆处理,会快速积累聊天历史、工具输出等信息。若采用简单粗暴的方式将所有内容都塞进提示词,不仅可能超出上下文窗口限制、大幅增加成本,还会让模型陷入混乱。实践证明,"输入给AI智能体的上下文质量在很大程度上决定了其任务成败"。因此,工程师们已不再执着于寻找"魔法提示词",转而专注于构建能在恰当时间、以恰当格式为模型提供恰当信息的流水线系统。

ingFang SC";font-size: medium;font-variant-ligatures: normal;orphans: 2;widows: 2;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">上下文工程的主要目标是让LLM扎根于相关信息与工具之上,从而可靠地执行任务,具体包括以下几个方面:

ingFang SC";font-size: medium;font-variant-ligatures: normal;orphans: 2;widows: 2;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">然而,这些目标的实现面临着严峻挑战,主要源于LLM有限的上下文窗口。即便是像GPT-4这样的大型模型,也存在约128K tokens的硬性限制。长期运行的多轮智能体很容易超出这一限制,导致旧信息被截断或系统被迫丢弃相关细节。更糟的是,简单堆砌更多数据反而会损害性能。Breunig及其同事已识别出多种失败模式,如上下文污染(无效信息或幻觉混入提示词)、上下文干扰/混淆(无关或冲突信息使模型偏离轨道)以及上下文冲突(多段上下文相互矛盾)。总之,提供过多或结构混乱的上下文会使模型困惑,降低准确性。

ingFang SC";font-size: medium;font-variant-ligatures: normal;orphans: 2;widows: 2;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">

ingFang SC";font-variant-ligatures: normal;orphans: 2;widows: 2;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial; ">上下文的类型划分

ingFang SC";font-size: medium;font-variant-ligatures: normal;orphans: 2;widows: 2;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">在基于LLM的智能体中,"上下文"涵盖了推理时提供给模型的所有输入信息,主要类别包括:

在实际应用中,上下文类型通常按时间范围或作用划分:

这些上下文类型共同为LLM构建了丰富的情境画面。例如,一个AI日程安排助手在接收"你明天有空吗?"这样的查询时,还会获取用户的日历可用性(外部数据)、过往邮件(短期记忆)、请求者身份(档案)以及"发送邀请"的功能调用权限。有了这些上下文,智能体才能准确回答并采取行动;否则,其回复可能流于表面或出现错误。


上下文管理的架构与框架

现代基于LLM的智能体采用专门的软件框架来处理上下文组装,这些框架体现了将记忆、工具和检索数据注入LLM提示词的架构模式,主要包括:

上下文的获取、建模与维护

上下文工程的核心挑战在于如何收集恰当的上下文并保持其更新,同时不超出模型的窗口限制。常用技术包括:

这些方法确保了生成时LLM能获得优化的提示词。上下文工程流水线通常自动化数据流:从向量数据库检索、更新记忆存储、必要时进行总结,并格式化最终提示词。许多系统还包含评估循环,例如LangChain的智能体RAG功能允许模型反思是否需要更多上下文或工具,并在必要时调用子智能体。

上下文工程的应用场景

上下文工程为AI智能体的许多高级应用提供了支持:

局限性、开放问题与研究方向

尽管取得了进展,上下文工程仍面临重大开放挑战:

上下文工程处于LLM研究和系统设计的前沿,融合了信息检索、记忆增强学习和人机交互的思想。随着LLM的演进(如更大的上下文窗口或混合专家等新架构),上下文工程也将不断发展,助力构建能在长时范围内可靠推理的真正上下文感知AI系统。

通过精心设计的上下文管理,我们正逐步实现更智能、更可靠、更贴合人类需求的AI助手,它们不仅能理解当前查询,还能铭记过往交互、调用必要工具,并在复杂任务中保持连贯的推理链条。未来,上下文工程的进步将推动AI从简单的问答工具向真正的自主智能体转变,在科研、医疗、教育等诸多领域发挥变革性作用。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5