|
大家好,我是大熊。这次聊一个大熊最近在使用的工具——RAG(Retrieval-Augmented Generation)检索增强生成。它最早是Patrick Lewis等人提出来的[1]。避免大家啃论文,大熊总结了一下流程:
好了我们已经知道了RAG,那下来RAG系统隆重登场。我们还是老规矩,先说结论它到底可以干什么呢?答案是RAG系统可以扩展大模型的知识边界,尤其在如今的模型时代,需要我们把大模型“用得准、用得稳、用得值”。什么是 RAG系统?
它是大模型的“补脑神器”,GPT 很强大,但它也健忘 —— 它只能回答它“预训练”过的内容,对于公司内部知识、长文档里的细节、实时更新的个人数据,全都一问三不知,然而RAG系统可以弥补大模型的知识空白。
RAG系统工作流程是什么?
1. 用户提问(如:“大熊公司的休假制度是怎样的?”)
2. 向量检索系统从知识库中找到相关内容(如:人事手册)
3. 大模型结合这些资料进行回答,准确又贴合业务(如:大模型Qwen3进行总结并回答)
总结一下,就是用户对RAG系统提问,进而驱动向量检索系统,从知识库中提取相关信息,并由大模型融合上下文生成准确且业务相关的回答。
RAG系统解决了什么问题?
模型类型 |
行为比喻 |
特点 |
普通大模型 |
熊自己在脑袋里猜 |
容易胡说八道 |
RAG 模型 |
熊问图书管理员,查书后再回答 |
准确、可信 |
具体是大模型哪些痛点呢?
幻觉:模型乱编内容
上下文长度受限:上下文太长太贵,处理长文档困难
知识更新困难:新政策、新流程无法第一时间学会
支持动态更新:知识库更新,模型立马跟得上
什么时候适合用RAG系统?什么时候不适合?
适合场景:
企业内部知识问答(规章制度、FAQ)
合同、政策、PDF类复杂文档问答
本地私有数据不可上传到云时(本地部署)
不适合场景:
当然RAG系统应用场景还有很多,欢迎在评论区留言和大熊头脑风暴。
最后,它不像做基础模型那样费钱,也不像一些炫酷demo那样“华而不实”,大熊也发现RAG系统是最能落地的AI能力之一,值得大家持续关注。
参考文献:
[1]https://proceedings.neurips.cc/paper/2020/file/6b493230205f780e1bc26945df7481e5-Paper.pdf
|