“大模型应用提示词是核心,但智能体中大模型是核心,大模型会接收用户输入和工具调用结果,同样也会返回思考过程和调用参数。”
ReAct Agent基于思考-行动-观察的智能体,简单来说就是让智能体有更强的规划和逻辑推理能力,并且能够依靠自身去解决问题。
在前面的几篇文章中介绍了关于智能体的内容,以及大模型与提示词之间的关系;而今天我们再来仔细分析一下智能体的运作流程。
总之一句话,智能体的核心就是LLM大模型,其主要操作载体是Prompt提示词。
在应用大模型的过程中,提示词是使用大模型的唯一入口;而为了激发大模型的潜力,因此根据不同的应用场景,出现了多种不同的提示词范式;包括思维链(Cot),ReAct,In learning context等多种范式。
从根本上看,所有与大模型的交互确实都通过提示词(Prompt)实现,模型本身仅暴露一个文本输入/输出接口。In-Context Learning (ICL)、Chain-of-Thought (CoT) 等技术本质上都是针对提示词的结构化设计范式,旨在更高效地激发模型能力。
不同范式的核心差异:信息注入方式
虽然底层统一,但不同范式通过提示词向模型注入不同类型的信息结构:
| 范式 | | | |
|---|
| Zero-Shot | | 指令: <任务描述> | |
| ICL (Few-Shot) | | 示例输入→输出\n...\n新输入→? | |
| CoT | | 问题:... 让我们一步步思考: ... | |
| Self-Consistency | | | |
| Tool-Use | | | |
| ReAct | | Thought:... Act:... Obs:... | |
为什么需要多种范式?
因单一线性提示词无法覆盖所有任务需求,需通过结构化设计解决:
所以,从本质上来说任何对大模型的操作都是基于提示词的操作。