|
众所周知,RAG的核心是检索和增强。其具体流程是当我们向一个简单的RAG系统提问时,RAG系统可根据问题特征,到数据库中检索,得到相关片段后,传输给大模型,让大模型做答案生成。 这样的RAG系统在应对具体问题时,可以较好地检索到相关片段,但当我们的问题变得宽泛起来时,就不那么适用了。 ingFang SC', 'Hiragino Sans GB', 'Microsoft YaHei UI', 'Microsoft YaHei', Arial, sans-serif;color: rgb(119, 119, 119);line-height: 1.75em;">比如,我们有一篇文章,有好几个章节。当我们想问具体某个章节的知识点时,传统的RAG系统,在理想情况下可以锁定到知识点相关文本片段,可当我们问的问题没那么具体时,比如”这篇文章中第2章讲了什么内容?“、”这篇文章讲了什么内容时”,再按照原来检索逻辑就不适配了,因为这个时候的颗粒度不再是片段,而更为宏观,这个时候就不得不引入多知识源的RAG流程! 简单RAG流程的痛点从引言部分的案例可以了解到,一个简单的RAG流程往往由两部分组成:检索、生成。它需要利用外部知识源为LLM提供垂直领域的上下文信息,减少幻觉生成。但,简单的单一知识源的RAG流程却会有几个限制:  - 知识源单一:简单的RAG系统往往只考虑一个外部知识源,不能满足复杂多样的业务需求;
- 检索方式单一:面对不同的业务需求,需采用的检索方式不一样,比如有的适用向量检索、有的则需要做关键词匹配;
- 对问题处理粗暴:由于只具备单一的知识源及检索方式,自然也缺乏对问题做深入分析的能力。
为了实现多知识源的效果,常规处理思路是在前面检索模块前,增加一个意图识别模块,用于任务分发,本文基于llama_index和最近很火的deepseek进行了探索。 构建多知识源的RAG流程流程- 如果是概括性问题则查询
summary_query_engine,如果是细节性问题则查询vector_query_engine; - 查询得到到问题片段后,让给
deepseek总结,得到答案。
具体实现首先,加载文档。这里以openai发布的o1-preview-system-card-20240917.pdf为例: fromllama_index.coreimportSimpleDirectoryReader
document = SimpleDirectoryReader(input_files="./data/o1-preview-system-card-20240917.pdf").load_data()
将文档切片,并生成nodes fromllama_index.core.node_parserimportSentenceSpitter
# 使用 SentenceSplitter 分割文档为节点 splitter = SentenceSplitter(chunk_size=1024) nodes = splitter.get_nodes_from_documents(documents)
设置deepseek和embedding 由于deepseek支持openai大模型的调用方式,可以在llama_index中使用OpenAILike类来对接,具体方法见代码: fromllama_index.llms.openai_likeimportOpenAILike fromllama_index.embeddings.huggingfaceimportHuggingFaceEmbedding
Settings.embed_model = HuggingFaceEmbedding( model_name="BAAI/bge-large-zh" ) # 使用 Hugging Face 的嵌入模型
Settings.llm = OpenAILike( model="deepseek-chat", api_base="https://api.deepseek.com", api_key="****", is_chat_model=True )
创建索引和查询引擎 SummaryIndex的原理是将所有Nodes以列表的形式排列,在查询时,会将所有节点送给llm;- 而
VectorStoreIndex,则是按照向量相似度来检索,返回最top_k个片段。
# 创建 SummaryIndex 和 VectorStoreIndex summary_index = SummaryIndex(nodes, show_progress=True) vector_index = VectorStoreIndex(nodes)
# 创建查询引擎 summary_query_engine = summary_index.as_query_engine(response_mode="simple_summarize") vector_query_engine = vector_index.as_query_engine(similarity_top_k=2)
# 创建 QueryEngineTool summary_tool = QueryEngineTool.from_defaults( query_engine=summary_query_engine, description="可用于对文章做概括性总结", )
vector_tool = QueryEngineTool.from_defaults( query_engine=vector_query_engine, description="可用于文章中具体信息的检索", )
最关键的一步,创建路由查询引擎 query_engine = RouterQueryEngine( selector=LLMSingleSelector.from_defaults(), query_engine_tools=[summary_tool, vector_tool], verbose=True, )
结果验证response = query_engine.query("文章主要讲了什么内容")
 response=query_engine.query("文章主要讲了什么内容")
总结本文主要在路由查询引擎和检索库两个方面,利用llama_index和deepseek实现了多知识源的实现方案。 通过结果也可以看到, VectorStoreIndex可以较好处理细节问题,SummaryIndex可以较好处理概括性问题,后续我们还可以丰富RouterQueryEngine的配置,来丰富RAG系统的功能。 |