返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

基于爆火的deepseek探索RAG多知识源方案

[复制链接]
链载Ai 显示全部楼层 发表于 3 小时前 |阅读模式 打印 上一主题 下一主题

众所周知,RAG的核心是检索和增强。其具体流程是当我们向一个简单的RAG系统提问时,RAG系统可根据问题特征,到数据库中检索,得到相关片段后,传输给大模型,让大模型做答案生成。

这样的RAG系统在应对具体问题时,可以较好地检索到相关片段,但当我们的问题变得宽泛起来时,就不那么适用了。

ingFang SC', 'Hiragino Sans GB', 'Microsoft YaHei UI', 'Microsoft YaHei', Arial, sans-serif;color: rgb(119, 119, 119);line-height: 1.75em;">比如,我们有一篇文章,有好几个章节。当我们想问具体某个章节的知识点时,传统的RAG系统,在理想情况下可以锁定到知识点相关文本片段,可当我们问的问题没那么具体时,比如”这篇文章中第2章讲了什么内容?“、”这篇文章讲了什么内容时”,再按照原来检索逻辑就不适配了,因为这个时候的颗粒度不再是片段,而更为宏观,这个时候就不得不引入多知识源的RAG流程

简单RAG流程的痛点

从引言部分的案例可以了解到,一个简单的RAG流程往往由两部分组成:检索、生成。它需要利用外部知识源为LLM提供垂直领域的上下文信息,减少幻觉生成。但,简单的单一知识源的RAG流程却会有几个限制:

  1. 知识源单一:简单的RAG系统往往只考虑一个外部知识源,不能满足复杂多样的业务需求;
  2. 检索方式单一:面对不同的业务需求,需采用的检索方式不一样,比如有的适用向量检索、有的则需要做关键词匹配;
  3. 对问题处理粗暴:由于只具备单一的知识源及检索方式,自然也缺乏对问题做深入分析的能力。

为了实现多知识源的效果,常规处理思路是在前面检索模块前,增加一个意图识别模块,用于任务分发,本文基于llama_index和最近很火的deepseek进行了探索。

构建多知识源的RAG流程

流程

  1. 用户输入问题;
  2. 路由查询引擎利用deepseek分析问题类型;
  3. 如果是概括性问题则查询summary_query_engine,如果是细节性问题则查询vector_query_engine
  4. 查询得到到问题片段后,让给deepseek总结,得到答案。

具体实现

首先,加载文档。这里以openai发布的o1-preview-system-card-20240917.pdf为例:

fromllama_index.coreimportSimpleDirectoryReader

document = SimpleDirectoryReader(input_files="./data/o1-preview-system-card-20240917.pdf").load_data()

将文档切片,并生成nodes

fromllama_index.core.node_parserimportSentenceSpitter

# 使用 SentenceSplitter 分割文档为节点
splitter = SentenceSplitter(chunk_size=1024)
nodes = splitter.get_nodes_from_documents(documents)

设置deepseekembedding

由于deepseek支持openai大模型的调用方式,可以在llama_index中使用OpenAILike类来对接,具体方法见代码:

fromllama_index.llms.openai_likeimportOpenAILike
fromllama_index.embeddings.huggingfaceimportHuggingFaceEmbedding

Settings.embed_model = HuggingFaceEmbedding(
model_name="BAAI/bge-large-zh"
) # 使用 Hugging Face 的嵌入模型

Settings.llm = OpenAILike(
model="deepseek-chat",
api_base="https://api.deepseek.com",
api_key="****",
is_chat_model=True
)

创建索引和查询引擎

  • SummaryIndex的原理是将所有Nodes以列表的形式排列,在查询时,会将所有节点送给llm;
  • VectorStoreIndex,则是按照向量相似度来检索,返回最top_k个片段。
# 创建 SummaryIndex 和 VectorStoreIndex
summary_index = SummaryIndex(nodes, show_progress=True)
vector_index = VectorStoreIndex(nodes)

# 创建查询引擎
summary_query_engine = summary_index.as_query_engine(response_mode="simple_summarize")
vector_query_engine = vector_index.as_query_engine(similarity_top_k=2)

# 创建 QueryEngineTool
summary_tool = QueryEngineTool.from_defaults(
query_engine=summary_query_engine,
description="可用于对文章做概括性总结",
)

vector_tool = QueryEngineTool.from_defaults(
query_engine=vector_query_engine,
description="可用于文章中具体信息的检索",
)

最关键的一步,创建路由查询引擎

query_engine = RouterQueryEngine(
selector=LLMSingleSelector.from_defaults(),
query_engine_tools=[summary_tool, vector_tool],
verbose=True,
)

结果验证

response = query_engine.query("文章主要讲了什么内容")
response=query_engine.query("文章主要讲了什么内容")

总结

本文主要在路由查询引擎检索库两个方面,利用llama_indexdeepseek实现了多知识源的实现方案。

通过结果也可以看到, VectorStoreIndex可以较好处理细节问题,SummaryIndex可以较好处理概括性问题,后续我们还可以丰富RouterQueryEngine的配置,来丰富RAG系统的功能。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ