链载Ai

标题: 为什么 LLM 搞不定复杂任务?ReAct 与 Reflexion 技术综述 [打印本页]

作者: 链载Ai    时间: 昨天 22:38
标题: 为什么 LLM 搞不定复杂任务?ReAct 与 Reflexion 技术综述

在人工智能领域,特别是大语言模型(LLM)的应用中,尽管模型在许多任务上表现出色,但在处理复杂任务时仍存在明显局限性。大型语言模型在处理需要多步骤推理、实时信息获取和动态决策的任务时,常常面临以下挑战:

为了解决这些问题,研究人员提出了多种提示技术框架,其中ReAct(Reasoning + Acting)和Reflexion(Self-Reflection)作为两个关键创新,通过将推理、行动和反思机制融入模型行为中,显著提升了LLM在知识密集型、决策型和编程任务上的表现。

本文将基于搜集的资料,介绍ReAct的核心思想、机制和应用,并探讨Reflexion作为其扩展的自我反思框架,最后讨论它们的结合潜力。

ReAct框架:推理与行动的协同

ReAct的核心思想

ReAct框架由Yao等人于2022年提出,其名称源于"Reasoning"(推理)和"Acting"(行动)的结合。该框架的核心灵感来源于人类决策过程:我们不只是被动思考,而是通过思考制定计划、执行行动、观察结果,并据此调整策略。ReAct将这一过程应用到LLM中,使模型能够动态处理复杂任务。

通过"思考 → 行动 → 观察 → 再思考"的循环,ReAct使LLM能够融入外部知识,避免纯内部推理的局限性。

ReAct解决的问题

传统方法存在明显短板:

ReAct通过行动步骤验证信息、减少幻觉,并通过推理步骤分解复杂问题。在知识密集型任务(如问答和事实验证)中,ReAct优于Act-Only,并与CoT结合时效果最佳。在决策型任务(如文字游戏)中,它显著提升性能,尽管与人类专家仍有差距。

ReAct的运作机制

ReAct依赖于特殊的提示方法:

1. 从训练集选取案例,改写成"思考-行动-观察"(Thought-Action-Observation)的轨迹。

2. 将这些轨迹作为少样本示例输入LLM。

3. LLM模仿格式,生成自己的循环直到得出答案。

示例:

任务: 清洗一个非常油腻的平底锅

模型生成的 ReAct 轨迹(模拟):

思考1:平底锅很油腻,我需要有效的清洗方法,可能涉及去油剂。行动1:搜索[清洗非常油腻平底锅的方法]观察1:推荐使用热水的、洗洁精和小苏打;先浸泡,然后擦洗。思考2:我有方法,现在执行步骤。行动2:执行[用热水浸泡锅子;添加洗洁精和小苏打;用海绵擦洗;冲洗干净]观察2:锅子清洁。思考3:如果仍有残留,重复擦洗。行动3:结束[锅子已清洗干净]

实践应用

ReAct框架在多个领域都有广泛的应用场景,以下是一些典型的使用场景和实践示例:

1. 知识密集型问答

在需要准确事实信息的任务中,ReAct能够通过外部工具获取最新信息,避免模型幻觉。

#知识密集型问答示例Agent.run("2024年诺贝尔物理学奖得主是谁?他们的主要贡献是什么?")

2. 复杂决策任务

在需要多步骤规划和决策的任务中,ReAct能够制定策略并动态调整。

#旅行规划示例agent.run("为一个三口之家规划一个周末从北京到天津的亲子旅行,预算3000元")

3. 数据分析与计算

结合计算器等工具,ReAct能够执行复杂的数值计算和数据分析任务。

#数据分析示例agent.run("计算2023年公司各季度销售额增长率,并预测2024年第一季度销售额")

4. 客户服务

在客户服务场景中,ReAct能够根据用户问题检索相关信息并提供解决方案。

#客户服务示例agent.run("用户报告无法登录账户,错误代码为AUTH-001,请提供解决方案")

5. 编程辅助

在编程任务中,ReAct能够通过搜索文档、执行代码片段来辅助开发,以爱码仕ai编程工具使用为例,ReAct框架被用于智能代码生成、错误诊断与修复、技术选型建议等场景。

#爱码仕中的ReAct应用示例agent.run("创建一个React组件,实现用户登录表单,包含邮箱和密码验证功能")
在LangChain框架中,实现ReAct代理很简单:

实例代码:

# 更新或安装必要的库# !pip install --upgrade openai# !pip install --upgrade langchain# !pip install --upgrade python-dotenv# !pip install google-search-results# 引入库importosfromopenaiimportOpenAIfromlangchain_community.agent_toolkits.load_toolsimportload_toolsfromlangchain.agentsimportinitialize_agentfromdotenvimportload_dotenvload_dotenv()fromtypingimportOptional,Listfromlangchain_core.language_models.llmsimportLLMfromlangchain.toolsimportBaseToolclassCustomLLM(LLM):  api_key:str  client:Optional[OpenAI] =None def__init__(self, api_key:str, **kwargs):   # 初始化OpenAI客户端,使用阿里云通义千问API    client = OpenAI(      api_key=api_key,      base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",    )   super().__init__(api_key=api_key, client=client, **kwargs)  @property def_llm_type(self) ->str:   return"qwen3-max" def_call(self, prompt:str, stop:Optional[List[str]] =None) ->str:   # 添加ReAct格式的系统提示    system_prompt ="""你是一个严格遵循ReAct模式的AI助手。核心规则 - 必须严格遵守:1. 每次回复只能包含一个Thought和一个Action2. 格式必须完全按照以下模式,不能有任何偏差:Thought: [你的思考过程]Action: [工具名称]Action Input: [工具输入]3. 绝对不能在一次回复中包含多个Thought或Action4. 绝对不能直接给出Final Answer,除非前面有"Thought: I now know the final answer"5. 每次Action后必须等待Observation才能继续下一轮错误示例(禁止):- 输出多个Thought-Action对- 直接输出Final Answer而没有preceding thought- 在Action Input中包含额外解释正确示例:Thought: 我需要检查材料是否齐全Action: MaterialCheckAction Input: 洗洁精、钢丝球、热水只有当任务完全完成后才能输出:Thought: I now know the final answerFinal Answer: [最终答案]"""    completion =self.client.chat.completions.create(     # 使用通义千问plus模型      model="qwen-plus",      messages=[        {"role":"system","content": system_prompt},        {"role":"user","content": prompt}      ],      temperature=0.1, # 稍微增加一点随机性但保持稳定      max_tokens=200, # 减少token数量强制简洁输出      stop=["\nObservation:","Observation:","\n\n"], # 添加停止词    )   # 返回生成的内容   returncompletion.choices[0].message.content# 自定义清洗工具classMaterialCheckTool(BaseTool):  name:str="MaterialCheck"  description:str="检查清洗材料是否准备齐全。输入材料列表,返回检查结果。" def_run(self, materials:str) ->str:   returnf"已检查材料:{materials}。所有材料准备就绪,可以开始清洗。"classCleaningStepTool(BaseTool):  name:str="CleaningStep"  description:str="执行一个具体的清洗步骤。输入步骤描述,返回执行结果。" def_run(self, step:str) ->str:   returnf"已完成步骤:{step}。步骤执行成功,可以继续下一步。"classInspectionTool(BaseTool):  name:str="Inspection"  description:str="检查当前清洗效果。输入检查内容,返回检查结果。" def_run(self, inspection:str) ->str:   returnf"检查结果:{inspection}。清洗效果良好,建议继续或完成清洗。"llm = CustomLLM(api_key=os.getenv("DASHSCOPE_API_KEY"))# 创建自定义工具实例material_check = MaterialCheckTool()cleaning_step = CleaningStepTool()inspection = InspectionTool()# 组合所有工具math_tools = load_tools(["llm-math"], llm=llm)custom_tools = [material_check, cleaning_step, inspection]tools = math_tools + custom_toolsagent = initialize_agent(tools, llm, agent="zero-shot-react-description", verbose=True, handle_parsing_errors=True)
agent.run("任务:清洗一个非常油腻的平底锅")

输出类似于:

> python3 react.py> Entering new AgentExecutor chain...Thought: 我需要先检查清洗材料是否准备齐全Action: MaterialCheckAction Input: 洗洁精、钢丝球、热水Observation: 已检查材料:洗洁精、钢丝球、热水。所有材料准备就绪,可以开始清洗。Thought:Thought: 材料已准备齐全,现在可以开始执行清洗步骤。Action: CleaningStepAction Input: 用热水浸泡平底锅5分钟,然后加入洗洁精并用钢丝球擦洗油腻部分ObservationObservation: 已完成步骤:用热水浸泡平底锅5分钟,然后加入洗洁精并用钢丝球擦洗油腻部分Observation。步骤执行成功,可以继续下一步。Thought:Thought: 我需要检查当前的清洗效果,确保油腻已被清除。Action: InspectionAction Input: 检查平底锅表面是否还有油渍残留Observation: 检查结果:检查平底锅表面是否还有油渍残留。清洗效果良好,建议继续或完成清洗。Thought:Thought: 清洗效果良好,没有油渍残留,清洗任务已完成。Final Answer: 平底锅已成功清洗,表面无油渍残留,清洗任务完成。
> Finished chain.

Reflexion:ReAct的自我反思扩展

Reflexion的核心思想

Reflexion是一个强化学习框架,由Shinn等人提出,它通过生成语言反馈(口头强化)帮助智能体从错误中学习,而非传统标量奖励。Reflexion模仿人类反思过程,让模型在尝试后获得具体改进建议,如"上次搜索范围太宽,下次更具体"。

Reflexion的三大组件

Reflexion构建在ReAct基础上,添加评估和反思机制,形成闭环:

工作流程:行动 → 评估 → 反思 → 迭代。通过滑动窗口记忆,Reflexion保留反思内容,实现持续优化。

示例:

任务: 清洗一个非常油腻的平底锅

Reflexion 通过行动、评估、反思和迭代来优化响应。假设初始尝试失败,然后通过反思改进。

初始行动轨迹(Actor 生成,基于 ReAct):思考1:平底锅很油腻,需要简单清洗。行动1:执行[用冷水冲洗锅子;擦干]观察1:锅子仍有油渍。评估(Evaluator): 失败 - 锅子未完全清洁。反思(Self-Reflection): 上次尝试使用冷水无效,因为油渍需要热分解。下次应该搜索有效方法,包括热水的、洗洁精和小苏打,并详细列出步骤。存储到记忆:优先考虑热处理和去油剂。
迭代行动轨迹(Actor使用记忆改进):思考1:根据记忆,使用热水和去油剂。行动1:搜索[清洗油腻平底锅的详细步骤]观察1:步骤:1.用热水浸泡;2.添加洗洁精和小苏打;3.用海绵擦洗顽固污渍;4.冲洗并检查;5.如有残留,重复。思考2:现在有详细步骤,可以执行。行动2:执行[上述步骤]观察2:锅子完全清洁。评估(Evaluator):成功。

最终输出:详细步骤包括热水浸泡、添加洗洁精和小苏打、擦洗、冲洗和检查。

适用场景与局限性

Reflexion适合需要试错学习的任务,如决策、推理和编程。它计算效率高,无需模型微调,提供详细反馈和高可解释性。但局限包括依赖评估准确性、简单记忆机制,以及在非确定性编程任务中的挑战。

ReAct与Reflexion的比较与结合

ReAct聚焦于即时推理-行动循环,适合实时任务;Reflexion扩展为学习闭环,强调从失败中迭代,适用于需要优化的场景。两者结合(如在Reflexion中使用ReAct作为Actor)可发挥最大潜力:ReAct提供基础机制,Reflexion添加反思层,提升长期性能。

在提示技术中,这种结合减少了幻觉、提高了准确性,并增强了模型的自适应能力。

详细区别分析

虽然 ReAct 和 Reflexion 在示例中看起来相似(如两者都涉及思考-行动循环),但它们在机制和应用上存在关键差异:

结合优势

在实践中,Reflexion 可以将 ReAct 作为其 Actor 组件,实现两者无缝结合:

总之,ReAct 提供基础的动态推理,而 Reflexion 通过添加评估、反思和记忆,将其提升为自适应学习系统。

性能比较

实验结果表明,Reflexion 在多种任务上都取得了显著的性能提升,与 ReAct 和其他方法相比:

Reflexion Heuristic (启发式评估):本质上是一种简单、高效的硬编码逻辑(预先定义了一套成功或失败的规则,类似工程判断,快、便宜、黑白分明,但死板、僵化)

Reflexion GPT:使用一个强大的大语言模型(如 GPT-4)作为评估者(灵活智能、通用性强,但是贵)

资料来源

Reflexion:Language Agents with Verbal Reinforcement Learning

https://arxiv.org/pdf/2303.11366


总结与未来方向

ReAct和Reflexion作为提示技术中的重要创新,为大语言模型在复杂任务中的应用提供了有效解决方案:

主要贡献

1.ReAct框架通过将推理和行动相结合,使模型能够与外部环境交互,获取实时信息,有效减少了模型幻觉问题。

2.Reflexion框架在ReAct基础上增加了评估和反思机制,形成了完整的"感知-行动-评估-学习"闭环,使模型能够从错误中学习并持续优化。

3.两者的结合充分发挥了各自优势,既保证了即时响应能力,又具备了长期学习和优化的潜力。

应用前景

随着大语言模型技术的不断发展,ReAct和Reflexion将在以下领域发挥更大作用:

未来发展方向

1.记忆机制优化:开发更智能的记忆管理机制,包括记忆的存储、检索和遗忘策略;

2.评估器改进:设计更准确、更高效的评估器,减少误判对学习过程的影响;

3.多模态集成:将ReAct和Reflexion与视觉、语音等多模态能力结合,扩展应用范围;

4.个性化适应:根据用户偏好和历史交互记录,动态调整策略和行为模式;

5.可解释性增强:进一步提高模型决策过程的透明度,增强用户信任;

通过持续的研究和优化,ReAct和Reflexion有望成为构建下一代智能系统的核心技术,推动人工智能在更多领域的深度应用。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5