本文以容易理解的信息化视角,结合实际项目经验,梳理一套AI应用层面的基础技术体系,按投入成本和落地难度从小到大分别是:LLM基础对话<RAG<Agent<Training,同时将近期出现的一些新技术和新方向都归纳到这个体系层次中去,助力读者建立起对AI的核心认知框架。
LLM基础模式
RAG检索增强生成模式
AI Agent智能体模式
在以上RAG的基础上,如果你还需要进一步调用工具,比如要调用工具查询数据库,比如要调用查询天气、订票的工具等,比如在知识库检索之前,需要先进行OCR识别,或者先基于ASR进行语音识别,得到文本再进行检索,比如在大模型和工具调用之后,需要将文字转成语音输出,利用TTS进行转换等。
总之就是为了满足某个业务场景,就不仅是简单调用LLM,也不仅是进行RAG知识检索,还需要进行业务逻辑组合,包括工具调用和各种小模型的串联等等,这就进入到AI Agent的范畴了,其核心结构演变如下:
AI Agent核心就是根据处理逻辑需要,组合串联工具、大模型和小模型,甚至包含多次LLM调用。其处理逻辑执行范式大概有两种,一种是有明确处理流程的workflow模式,一种是需要动态决策,边执行边修正的ReAct模式,详见笔者之前写的这篇文章《从workflow到ReAct提升AI Agent智能化水平》。
Training训练模式
在以上AI Agent基础上,假如你发现增加了知识库RAG,增加了各种工具调用后,实现效果还是不够理想,生成结果还是不够精准的话,这个时候你可以考虑对LLM进行一定的微调训练,利用你知识库中准备好的行业知识来进行微调,得到垂域大模型,再应用到AI Agent中去,其核心结构演变如下:
这种模式相当于把外挂知识库内化到通用LLM中去了,需要依赖一定的硬件算力来做训练,比单纯推理使用时需要的算力更多,人员能力上的要求也更高,所以这种模式从投入成本和落地难度来说都是最高的。
当然本文所说的训练,主要不是指预训练,因为我们不是大模型厂商,我们更多是从落地使用角度出发,关注微调和强化学习等后训练技术,具体可以参考笔者上一篇文章《大模型如何“练成”?详解训练、微调与强化学习的基础逻辑》。
四个层次的技术发展趋势
从落地角度看,以上四个层次是逐层递进,同时回到本文开头提到近期AI领域涌现的这些新技术、新概念,其实都是可以归纳到这四个层次,笔者简单梳理如下:
AI Agent层面上半年最热闹的话题就是MCP和A2A两个协议规范了,一个用于规范Agent调用工具的规范,另一个用于规范多个Agent之间协作的规范,此外还有DeepResearch,以及最近比较热的上下文工程Context Engineering等,这些技术都是越来越接近应用层面了。
Training后训练层面的微调SFT和强化学习RL,其实笔者对发展趋势还没有太多研究,现阶段能把微调LORA落地实践一把就很不错了。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |