链载Ai

标题: 上下文工程 (Context Engineering) -- 现代 AI 系统的架构基础 [打印本页]

作者: 链载Ai    时间: 昨天 21:45
标题: 上下文工程 (Context Engineering) -- 现代 AI 系统的架构基础

最近,AI大神 Andrej Karpathy 在YC的一个演讲《Software in the era of AI 》带火了一个新的概念Context Engineering,上下文工程,LangChain也于7月2号在官网博客发表以《Context Engineering》为题目的文章(https://blog.langchain.com/context-engineering-for-Agents/) 论述上下文工程的理论技术架构与重要意义。

继提示词工程之后,上下文工程被广泛认知为是现代 AI 系统的新的架构基础。

第一部分:上下文工程的基础

第1节:从提示到系统:定义新范式

随着大型语言模型(LLM)能力的日益增强,人工智能(AI)开发的焦点正从孤立的交互转向构建复杂的、有状态的系统。

在这种背景下,一个名为“上下文工程”(Context Engineering)的新兴学科正在取代传统的“提示工程”(Prompt Engineering),成为构建可靠、可扩展和高性能AI应用的核心。

本文将深入探讨上下文工程的基本定义、其相对于提示工程的演进,以及为何它已成为现代AI系统,尤其是智能体(Agentic AI)成功的关键决定因素。

1.1. 上下文工程的定义:管理LLM“工作记忆”的艺术与科学

从根本上说,上下文工程是一门设计、构建和优化动态系统的学科,其目标是在正确的时间、以正确的格式,为大型语言模型提供完成任务所需的所有正确信息和工具。

这个定义强调了其系统性和动态性,与一次性的指令 crafting 形成鲜明对比。

行业思想领袖,如Andrej Karpathy,为理解上下文工程提供了强有力的心智模型。他将LLM比作一种新型的操作系统(OS),其中LLM本身是中央处理器(CPU),而其“上下文窗口”(Context Window)则是随机存取存储器(RAM)。

上下文窗口是模型在生成响应之前所能“看到”的全部信息,其容量有限。

正如操作系统精心管理哪些数据和指令被加载到RAM中供CPU处理一样,上下文工程就是管理LLM有限工作记忆的实践,精心策划在任务的下一步需要加载哪些信息 。这被形容为一门“精巧的艺术与科学” 。

这种视角揭示了一个核心转变:上下文工程关注的是构建一个系统,而不仅仅是制作一个字符串

这个系统是动态的,它会根据当前任务的即时需求,从用户历史、工具调用、数据库和实时API等多个来源动态地组装上下文 。

因此,最终提交给LLM的完整输入,是这个复杂信息系统运行的结果,而非一个静态的文本模板。

1.2. 从提示工程的演进飞跃:比较分析

上下文工程的兴起并非简单地为旧概念换上新标签,而是标志着AI开发范式的根本性转变。它与提示工程在目标、范围和实践上存在本质区别。

首先,两者在核心焦点上有所不同。

提示工程主要关注于 crafting 完美的指令,即如何向LLM提问以引导其产生期望的输出 。而上下文工程则更广泛地关注于用最相关的信息来填充上下文窗口,无论这些信息来自何处 。

在这种模型下,用户提示只是整个上下文的组成部分之一,与其他信息(如检索到的文档、对话历史、工具输出等)并存 。

其次,两者的性质截然不同。

提示工程通常与静态模板相关联,即为特定任务设计一个固定的、可复用的提示格式。

相比之下,上下文工程本质上是动态的 。

它所构建的系统能够根据对话的进展、用户的行为或外部环境的变化,实时地组装和调整上下文。

例如,一个用于安排会议的智能体,其上下文可能在一次交互中动态地包含用户的请求、日历的可用性数据以及与会者的联系信息。

这种差异最终体现在应用的质量上。Philipp Schmid用一个生动的例子阐明了这一点:一个“廉价演示版”的智能体,仅接收用户提示作为上下文,其响应往往是通用且毫无帮助的。而一个“神奇的”智能体,其背后是由上下文工程驱动的丰富信息流——包括用户的日历数据、过去的邮件往来、联系人列表等——因此能够生成高度个性化、精准且可立即执行的响应 。

这种“神奇”并非源于更强大的模型,而是源于经过精心设计的、信息丰富的上下文环境。

1.3. 为何在智能体AI中,上下文失败即模型失败

随着AI应用从简单的问答机器人演变为能够执行多步骤、长期任务的自主智能体,上下文工程的重要性愈发凸显 。

对于这些智能体而言,状态管理、记忆和多轮推理是其核心能力,而所有这些都必须在有限的上下文窗口内进行管理和实现 。

这一现实导致了一个关键结论:

现代AI智能体的大多数失败不再是模型推理能力的失败,而是上下文的失败

LLM本身可能具备强大的通用推理能力,但如果未能获得完成任务所需的关键信息,它就无能为力。

这句古老的计算机格言“垃圾进,垃圾出”(Garbage In, Garbage Out)在这里得到了新的诠释:

LLM无法读取开发者的思想或访问其未被授予权限的数据。

因此,提供正确、完整且无歧义的上下文,已成为构建可靠智能体的首要任务。

行业内的共识也印证了这一点。

来自Cognition和Anthropic等前沿公司的专家明确指出,上下文管理是“构建AI智能体工程师的第一要务”。

当一个智能体需要进行跨越数百轮对话的复杂交互时,如何有效地选择、压缩、排序和更新上下文,直接决定了该智能体的成败。

这种范式转变的背后,是AI开发领域核心复杂性的转移。

最初,当LLM能力有限时,复杂性在于如何巧妙地“欺骗”或引导模型给出正确答案,这催生了提示工程。

随着模型变得越来越强大,其通用推理能力已足够可靠,复杂性便转移到了如何为这个强大的“推理引擎”提供高质量的“燃料”——即上下文。

因此,对上下文工程的掌握程度,正在成为衡量AI工程师和开发团队核心竞争力的关键指标。构建一个能够动态管理信息流的复杂系统,其所需技能组合已远超传统的机器学习或自然语言处理,而更多地偏向于系统设计、信息架构和数据工程。

这预示着,未来AI应用的竞争优势,将越来越不取决于其使用的是哪款基础模型,而在于其上下文工程流水线的成熟度、复杂性和独特性。

为了更清晰地展示这一范式演变,下表从多个维度对提示工程和上下文工程进行了比较。

表1:提示工程与上下文工程的范式对比

特征
提示工程
上下文工程
主要目标
从模型中引出特定响应
构建一个可靠、可扩展、有状态的应用
核心活动
手工制作静态文本字符串
设计一个动态组装上下文的系统
隐喻
咒语或命令
对通用函数的API调用;剧本;管理RAM的操作系统
范围
最终的指令集
整个流水线:指令、状态、检索的数据、工具和格式
性质
主要是单轮交互
内在是多轮、有状态和动态的
关键技能
创意写作、熟悉模型特性
系统设计、信息检索、数据工程、评估

第二部分:架构蓝图:核心组件与策略

成功实现上下文工程依赖于对两个核心要素的深刻理解:构成上下文窗口的各个组件,以及用于有效管理这些组件的技术策略。本部分将首先解构上下文窗口的“解剖学”,然后深入探讨作为其基石的检索增强生成(RAG)技术,最后介绍一系列用于优化上下文的高级管理技术。

第2节:上下文窗口的解剖学

将上下文窗口视为一个单一的文本块是一种过于简化的看法。实际上,它是一个高度结构化的、多层次的数据对象。

一个有效的上下文工程师会像构建一个复杂的API请求负载一样来设计它,而不是简单地拼接字符串。这种架构化的视角是实现可靠和可预测AI行为的前提。

2.1. 上下文组件的综合分类

一个典型的上下文窗口由多种不同类型的信息组件构成,这些组件共同为LLM提供执行任务所需的环境。综合LlamaIndex、Philipp Schmid等来源的分析,我们可以将这些组件归纳为以下几类:

2.2. 结构与格式的关键重要性

在上下文工程中,如何呈现信息与呈现什么信息同等重要。

一个简洁的摘要远胜于原始数据转储;一个清晰的工具模式比模糊的指令更有效。

这种对结构和格式的强调,源于LLM处理信息的方式。

近期的研究表明,LLM表现出新兴的符号推理能力,这使得结构化格式(如Markdown、JSON)比纯文本更容易被解析和利用。使用明确的分隔符(如 ###)、语法结构和符号,可以帮助模型更好地分割、理解和管理上下文的不同部分。这种做法类似于为模型提供一个“脚手架”,引导其推理过程。

此外,**上下文组件的顺序 ** 也对模型性能有显著影响。

例如,在处理长文档问答任务时,将具体问题放在长篇文档之后,可以帮助模型在消化完信息后更专注于任务本身。

对于时间敏感的数据,按日期对检索到的信息进行排序,确保最新的信息出现在最前面,也至关重要。

对结构化数据(如工具模式、输出格式)的日益依赖,实际上是对LLM进行一种“软性API化”的过程。这通过明确的约束来限制模型的随机性,使其行为更加可预测和可靠,这是任何企业级应用所必需的前提。

当LLM被要求遵循一个严格的JSON Schema输出时,它的行为就从一个富有创造力的“随机文本生成器”转变为一个更接近确定性的“数据转换器”。

这种转变是推动LLM从有趣的“玩具”进化为可靠的“工具”的关键一步,它使得LLM能够以更高的信任度和可预测性被集成到大型软件系统中。

为了给工程师提供一个实用的设计蓝图,下表详细梳理了上下文窗口的各个组件。

表2:上下文窗口组件分类详解

上下文类别
组件
描述与用途
指令性
系统提示
设定智能体的角色、高级目标和行为约束。
指令性
用户输入
用户提出的直接查询或命令,是任务的起点。
指令性
少样本示例
提供具体的输入-输出范例,引导模型行为。
状态性
聊天历史/短期记忆
提供当前对话的直接上下文。
状态性
长期记忆
跨会话持久化信息(如用户偏好、摘要)。
状态性
暂存区/全局状态
智能体在多步骤任务中的临时工作空间,用于存储中间结果。
外部知识
检索的数据 (RAG)
从外部知识源(文档、数据库、API)动态获取信息,为模型提供事实依据。
工具驱动
工具定义与模式
告知LLM可用工具、其参数及功能。
工具驱动
工具响应
工具调用的输出,作为下一步推理的输入。
结构化
结构化输出模式
定义LLM响应必须遵循的格式(如JSON Schema)。
结构化
结构化输入数据
以紧凑的结构化格式(如JSON)提供高效的上下文。

第3节:检索增强生成(RAG)的基石

在上下文工程的众多技术中,检索增强生成(Retrieval-Augmented Generation, RAG)占据了核心地位。

它是一种基础性框架,旨在通过将LLM与外部的、权威的知识源相连接,来解决模型知识陈旧和产生“幻觉”的根本性问题。

3.1. RAG基础:工作流与架构

核心概念:RAG是一个AI框架,它通过首先从外部知识库中检索相关信息,然后将这些信息作为上下文提供给LLM以增强生成过程,从而优化LLM的输出。

这个过程可以被形象地比作将“闭卷考试”变为“开卷考试”。在闭卷考试中,模型只能依赖其内部记忆(训练数据);

而在开卷考试中,模型可以查阅参考资料(检索到的外部数据),从而给出更准确、更可靠的答案。

标准工作流:一个典型的RAG系统包含以下几个关键步骤:

  1. 数据注入与索引 (Ingestion & Indexing):首先,需要准备外部知识源。这些数据可以来自文档(PDF、Word)、数据库、或API。系统将这些数据进行预处理,将其分割成更小的、有意义的“块”(chunks),然后使用嵌入模型(embedding model)将每个块转换为高维向量。这些向量捕获了文本的语义信息,并被存储在一个专门的向量数据库中以供快速检索。
  2. 检索 (Retrieval):当用户提出一个查询时,系统首先使用相同的嵌入模型将该查询也转换为一个向量。然后,它在向量数据库中执行相似性搜索(如余弦相似度或点积),找出与查询向量最接近的文本块向量。这些对应的文本块被认为是与查询最相关的信息。
  3. 增强与生成 (Augmentation & Generation):最后,系统将检索到的相关文本块与原始的用户提示拼接在一起,形成一个“增强的提示”。这个增强后的提示被发送给LLM。LLM现在可以利用这些实时提供的、高度相关的上下文信息来生成一个有事实依据的、内容丰富的回答。

核心优势:RAG框架为LLM应用带来了多项关键优势:

3.2. 高级RAG模式与架构

随着RAG应用的成熟,简单的“检索-生成”模式已演化出多种更复杂的“高级RAG”架构,以应对现实世界中的挑战。这些高级模式标志着RAG从一个单一技术演变为一个丰富的工程领域,其发展轨迹与经典信息检索系统的成熟过程遥相呼应。

3.3. RAG流水线的常见陷阱与缓解策略

尽管RAG功能强大,但在生产环境中实施时会遇到一系列挑战。这些挑战主要集中在数据管理和检索质量上,再次凸显了上下文工程的核心在于信息流水线的质量,而不仅仅是生成模型本身。


第4节:高级上下文管理技术

除了作为基石的RAG,一个成熟的上下文工程系统还需要一系列高级技术来精细化地管理有限的上下文窗口。

这些技术在处理长时程、有状态的智能体任务时尤为关键,它们共同构成了一个互补的工具箱,用于优化上下文的信噪比、持久性和隔离性。

4.1. 上下文压缩:最大化信号,最小化噪声

上下文窗口的有限容量以及与token数量成正比的成本,使得上下文压缩成为一项必不可少的技术。其核心目标是浓缩信息,在不丢失关键信号的前提下,尽可能减少噪声和冗余。

表3:上下文压缩技术对比

技术
机制
优点
缺点
适用场景
上下文提取
LLM提取相关片段
精度高,保留原文措辞
延迟高,成本高(每次调用LLM)
需要原文引用的事实问答
上下文过滤
LLM/嵌入决定保留/丢弃文档
比提取更快、更便宜
粒度粗,可能丢弃混合相关性的文档
对大量检索结果进行初步筛选
摘要
LLM生成内容摘要
大幅减少token,综合信息
可能丢失细节,增加延迟和成本
获取长文档要点,对话记忆
Gisting/软提示
模型学习将指令压缩为特殊tokens
推理时效率非常高
需要模型训练或微调
可被“蒸馏”的重复性任务
专用压缩模型 (如IC-Former)
轻量级外部模型压缩上下文
速度极快,效率高,与主LLM解耦
新兴研究,可能非现成可用
高吞吐量、延迟敏感的应用

4.2. 记忆架构:赋予智能体过去

LLM天生是无状态的,这意味着它们没有记忆。每一次交互都是独立的,除非我们将过去的交互信息明确地放入当前的上下文窗口中。因此,记忆必须通过上下文工程来构建和管理。

4.3. 上下文隔离与沙箱化

将所有信息——无论其结构和相关性如何——都直接塞进上下文窗口是一种危险的做法。冗长、非结构化的信息(如原始的工具输出日志、完整的API响应JSON)会干扰LLM的注意力,导致上下文干扰(Context Distraction)或上下文混淆(Context Confusion)等问题。

综上所述,一个先进的智能体架构会动态地、协同地运用这些上下文管理技术。

它可能在任务开始时使用RAG检索知识,然后用上下文压缩来提炼信息,在执行过程中使用暂存区记录中间步骤,通过沙箱化调用工具,并在任务结束时更新长期记忆。

上下文工程师的职责正是设计和编排这一复杂而优雅的信息流。


第三部分:工程实践:关键领域的实施

将抽象的原则和技术转化为具体的应用模式,是上下文工程的核心价值所在。本部分将通过深入分析一个关键领域的案例,展示上下文工程在真实世界中的部署方式和产生的深远影响。


第5节:案例研究:高保真AI代码助手

在软件开发领域,上下文工程正在推动AI代码助手从简单的代码补全工具,向能够理解整个项目背景、遵循团队规范的“虚拟团队成员”演进。

5.1. 超越“氛围编程”:结构化上下文的必要性

“氛围编程”(Vibe Coding)一词生动地描述了开发者与早期AI助手之间那种凭直觉、非结构化的交互方式。

然而,实践证明,这种方法在构建真实、可扩展的软件项目时会彻底失败。

软件工程的本质要求一致性、可维护性和规范性,而这只能通过结构化的、全面的上下文来保证。

5.2. 构建代码库上下文

为AI代码助手进行上下文工程,就像是为其编写一份详尽的“电影剧本”,而不仅仅是递给它一张“便利贴”。这种“剧本”由多个精心设计的组件构成,系统性地为AI提供了一个人类开发者所拥有的隐性和显性知识。

这种“先定义成功标准,再编码实现”的模式,可以看作是一种面向AI的“测试驱动开发”(Test-Driven Development for AI)。

传统的TDD要求开发者先写测试,再写代码让测试通过。在这里,PRP中的验证门扮演了“测试”的角色,而AI的任务就是生成能通过这些测试的代码。

这一深刻的转变,将AI从一个“生成然后祈祷”的工具,提升为一个结构化的、能够自我纠正的系统,极大地增强了其输出的可靠性,使其能够胜任复杂的多文件、多步骤实现任务。

5.3. 模型上下文协议(MCP)的角色

模型上下文协议(Model Context Protocol, MCP)是一个开放标准,旨在标准化AI助手与外部工具和数据源的连接方式。它解决了如何将来自不同系统(如设计工具、知识库、测试框架)的上下文安全、高效地引入开发工作流的难题。

通过MCP,像GitHub Copilot这样的AI助手可以实现更深度的集成。

例如,它可以直接从Figma中自动检索精确的设计参数(颜色、间距、字体),并生成像素级准确的前端代码;或者从团队的Obsidian知识库中调取相关的安全编码模式;甚至可以调用Playwright测试框架来验证它刚刚生成的代码是否正常工作。

MCP极大地减少了开发者在不同工具之间进行上下文切换的认知负担,将AI助手更紧密地编织到整个开发生命周期中。

这种全面的上下文集成,最终将AI助手的角色从一个被动的代码补全器,提升为一个主动的、仿佛已经“入职”的团队成员。

它能够访问和理解一个新加入的人类开发者所需要的所有信息——从项目规范到设计稿,再到现存代码模式——从而使其贡献更加协调、一致和高质量。


第四部分:测量、治理与安全

将上下文工程从实验原型推向生产环境,需要建立一套完善的配套体系,涵盖效果评估、流程治理和安全防护。本部分将探讨如何量化上下文工程的有效性,如何建立治理框架以确保其可靠和合规,以及如何防范其带来的新型安全威胁。

第6节:评估上下文工程系统

对上下文驱动的系统进行评估是一项复杂的任务,因为它不仅涉及最终生成内容的质量,还必须衡量其背后整个信息检索和处理流水线的性能。

6.1. 评估的挑战

传统的自然语言处理(NLP)评估指标,如BLEU和ROUGE,主要衡量生成文本与参考文本之间的表面词汇重叠度。

这对于评估RAG等系统的核心价值——事实准确性上下文相关性——是远远不够的。

一个RAG系统的失败可能源于检索阶段(未能找到正确信息)或生成阶段(未能正确利用找到的信息),因此需要能够区分这两种失败模式的细粒度评估方法。

6.2. 上下文管理的关键绩效指标(KPIs)

在评估LLM的最终输出之前,首先需要评估上下文流水线本身的质量。以下是一组可用于衡量上下文管理有效性的关键绩效指标(KPIs):

6.3. 深入解析RAG评估框架(RAGAs)

为了系统性地解决RAG评估难题,社区开发了专门的评估框架,其中RAGAs(Retrieval-Augmented Generation Assessment)是最具代表性的之一。

RAGAs的创新之处在于,它能够在很大程度上实现无参考答案评估,即无需为每个测试问题都准备一个人工编写的“标准答案”,而是通过巧妙的LLM调用来自动化评估过程,这极大地降低了评估成本,加快了迭代速度。

RAGAs提供了一套针对RAG流水线不同组件的指标:

RAGAs这类专用评估套件的出现,标志着RAG已从一个研究概念成熟为一个可度量、可优化的工程学科。

它为开发者提供了诊断系统瓶颈的“显微镜”:

例如,低上下文召回率指向检索器的问题,而高召回率但低忠实度则指向生成器的问题。

这种数据驱动的迭代能力是构建生产级可靠系统的基础。

然而,值得注意的是,这种“由LLM评估LLM”的模式本身也引入了新的变数。

评估LLM自身的偏见和局限性可能影响评估结果的公正性。

因此,实践者在使用这类自动化框架时,仍需保持批判性思维,并定期通过人工抽样来校准和验证自动化评估结果的可靠性。

表4:RAGAs评估套件:关键指标解析

指标
评估组件
回答的问题
计算方式(简化)
上下文精确率
检索
“检索到的上下文是相关的还是充满噪声?”
LLM检查检索到的文本中有多少句子与问题相关。
上下文召回率
检索
“我们是否检索到了回答问题所需的所有信息?”
LLM检查标准答案中的句子是否能在检索的上下文中找到依据。
忠实度
生成
“答案是否基于上下文,还是在‘幻觉’?”
LLM将答案分解为陈述,并逐一验证是否被上下文支持。
答案相关性
生成
“答案是否切题?”
LLM从答案反向生成问题,并与原问题比较相似度。

第7节:治理与可审计性

当上下文工程流水线成为企业关键业务流程的一部分时,对其进行有效的治理和审计就变得至关重要。这要求我们将传统的治理、风险和合规(GRC)原则应用于这个新兴的技术栈。

7.1. 建立面向上下文的GRC框架

GRC(Governance, Risk, and Compliance)是一个结构化的方法,旨在使IT系统与业务目标保持一致,同时有效管理风险并满足所有相关的行业和政府法规。对于上下文工程而言,应用GRC框架意味着:

7.2. 上下文数据的生命周期管理

有效的治理必须贯穿上下文数据的整个生命周期,从源头到最终应用。

7.3. 确保可审计性与可解释性

在受监管的行业中,AI系统的每一个决策都可能需要被解释和审计。上下文工程通过RAG等技术,为实现这一点提供了天然的优势。

这种方法将治理从一个官僚化的流程转变为AI系统本身的一个可审计、可监控的特性,这是在现代AI的速度和规模下管理风险的唯一可行途径。

一个组织的AI应用能力,最终受限于其底层数据管理的成熟度。拥有混乱、无治理数据环境的企业将难以构建可靠的上下文流水线,而拥有成熟数据治理体系的企业则在AI时代拥有了巨大的先发优势。


第8节:上下文驱动AI的安全漏洞

随着RAG系统将LLM与企业内部和外部的庞大数据源连接起来,它也极大地扩展了AI应用的攻击面。保护这些系统需要对从数据注入到最终响应的整个流水线进行全面的威胁建模。

8.1. RAG系统扩展的攻击面

与独立的LLM相比,RAG系统引入了新的安全风险,因为它依赖于一个复杂的、多阶段的流水线,其中每个阶段都可能成为攻击者的目标。OWASP发布的针对LLM应用的十大风险中,有多项与RAG系统直接相关。

8.2. 威胁建模:关键漏洞

8.3. 防御策略与最佳实践

保护RAG系统需要一个纵深防御策略,覆盖整个上下文工程流水线。

总而言之,RAG系统的安全性是一个全栈问题。知识库中的一个数据质量漏洞,其危险性不亚于LLM本身的安全过滤器漏洞。开发团队必须在设计的每一个环节都将安全性作为核心考量,而不是事后添加的补丁。


第五部分:前沿展望:未来轨迹与新兴范式

上下文工程是一个快速演进的领域。本部分将探讨定义其下一阶段发展的关键辩论、新兴技术和战略转变,包括长上下文窗口与RAG的权衡、智能体AI带来的新需求,以及向多模态上下文的扩展。

第9节:世纪之辩:长上下文LLM vs. RAG

随着LLM的上下文窗口从几千个tokens爆炸式增长到数百万个tokens,一个核心的架构问题摆在了所有AI工程师面前:我们还需要RAG吗?还是可以直接将所有信息“塞进”一个巨大的上下文中?

9.1. 长上下文窗口(LCW)的优势

9.2. RAG的持久价值

尽管LCW前景广阔,但在可预见的未来,RAG在企业级应用中仍将保持其核心地位,原因如下:

9.3. 走向融合:混合架构的兴起

这场辩论的最终答案很可能不是“非此即彼”,而是两者的融合与互补。未来的先进架构将结合RAG和LCW的优点,形成更强大的混合系统。

  1. 使用RAG的检索器,在由小文本块摘要构成的索引中进行高效、精确的搜索。

  2. 一旦定位到最相关的小块,系统并不直接使用它们,而是利用它们作为“指针”,去获取其所对应的原始大块文本整个文档

  3. 最后,将这些检索到的大块文本/完整文档放入一个长上下文窗口中,供LLM进行最终的、具有丰富上下文的综合推理和生成。

    这种模式巧妙地结合了RAG在海量数据中进行精确查找的优势,以及LCW在连贯推理大段文本上的优势。







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5