链载Ai

标题: 使用RAG技术构建企业级文档问答系统之基础流程 [打印本页]

作者: 链载Ai    时间: 2 小时前
标题: 使用RAG技术构建企业级文档问答系统之基础流程

1 概述

本文是本系列(使用RAG技术构建企业级文档问答系统)的第二篇,将介绍检索增强生成(Retrieval Augmented Generation,简称RAG)最基础流程。

所谓检索增强生成,是大语言模型兴起之后发展迅速的一个应用领域,简单说就是,这项技术,可以根据用户输入的问题,从文档(如PDF、Word、PPT、TXT、网页等)中自动检索跟问题相关的文本片段(或称为知识片段、上下文),然后将一段指令、用户输入的问题、文本片段拼装成一个Prompt(也就是大语言模型的输入),让大语言模型生成一个回答。

在ChatGPT最初发布的时候,回答问题主要还是依赖ChatGPT训练时的知识,由此导致了三个显著问题:

根据RAG所检索对象的不同,大致可以分成2类,但底层的技术其实是高度相似的:

使用Ollama和Langchain动手开发AI搜索问答助手
上面反复提到了知识库,在RAG的流程中,知识库会经历下面4个步骤处理,如下图所示:

(https://python.langchain.com/v0.2/docs/tutorials/rag/)

知识库处理好,保存到向量库之后,当用户提问时,会将用户问题也进行向量化,然后拿用户问题向量,去向量库中,使用余弦相似度(只是原理,后续后再详细展开),检索到最相似的一些句子,然后将用户问题、检索到的相似句子,一同组成一个Prompt,输入大模型,生成答案,如下图所示:


(https://python.langchain.com/v0.2/docs/tutorials/rag/)

下面将构建这个完整流程。

本文代码已经开源,地址在:https://github.com/Steven-Luo/MasteringRAG/blob/main/01_baseline.ipynb

2 环境准备

下面代码中所使用到的数据,可以在代码仓库中找到,其中的“问题-答案”对的构建方法,在上一篇文章中有完整说明:

使用RAG技术构建企业级文档问答系统之QA抽取

其余部分主要分3步:

上面的模型,都可以在本地运行,建议至少预留8GB的内存。

代码在Google Colab环境下进行了测试,正常情况下,安装Anaconda基本上会包含大部分所用到的包,再安装如下包即可:

pipinstall-Ulangchainlangchain_communitypypdfsentence_transformerschromadb

所安装包的版本

,,,,

module(langchain,langchain_community,pypdf,sentence_transformers,chromadb):
()
langchain0.2.10
langchain_community0.2.9
pypdf4.3.1
sentence_transformers3.0.1
chromadb0.5.4


Chroma


EMBEDDING_MODEL_PATH=
dt=
version=

output_dir=os.path.join(,)

加载数据集,包含问题、回答、所使用的文档片段,因此,使用这个数据集,可以对检索、生成效果进行测试

qa_df=pd.read_excel(os.path.join(output_dir,))

3 文档处理

3.1 文档加载

此处使用PyPDF这个库进行加载,处理PDF的库还有很多,后面会专门出一篇文章进行介绍。

PyPDFLoader

loader=PyPDFLoader()
documents=loader.load()

3.2 文档切分

在企业内部,一般知识库会比较庞大,每次都重新切分会比较耗时,因此,对切分后的文档片段也可以保存,方便下次再加载

uuid4



RecursiveCharacterTextSplitter

(documents,filepath,chunk_size=,chunk_overlap=,seperators=[,],force_split=):
os.path.exists(filepath)force_split:
()
pickle.load((filepath,))

splitter=RecursiveCharacterTextSplitter(
chunk_size=chunk_size,
chunk_overlap=chunk_overlap,
separators=seperators
)
split_docs=splitter.split_documents(documents)
chunksplit_docs:
chunk.metadata[]=(uuid4())

pickle.dump(split_docs,(filepath,))

split_docs

splitted_docs=split_docs(documents,os.path.join(output_dir,),chunk_size=,chunk_overlap=)

3.3 向量化

加载向量模型

HuggingFaceBgeEmbeddings


device=torch.cuda.is_available()
()

embeddings=HuggingFaceBgeEmbeddings(
model_name=EMBEDDING_MODEL_PATH,
model_kwargs={:device},
encode_kwargs={:}
)

将文档向量化,并使用Chroma持久化

tqdm

(docs,store_path,force_rebuild=):
os.path.exists(store_path):
force_rebuild=

force_rebuild:
vector_db=Chroma.from_documents(
docs,
embedding=embeddings,
persist_directory=store_path
)
:
vector_db=Chroma(
persist_directory=store_path,
embedding_function=embeddings
)
vector_db

跟上方的文档切分类似,企业知识库通常会比较庞大,如果每次都重新向量化,会非常耗时,因此,可以将向量化后的文档片段持久化

vector_db=get_vector_db(splitted_docs,store_path=os.path.join(output_dir,,))

4 检索

Langchain提供了比较方便的API,使用下方的函数即可完成检索

(vector_db,query:,k=):
vector_db.similarity_search(query,k=k)

为了方便后续对文档问答效果进行优化,此处对中间环节——检索,进行评估。

注意,一般这一步评估也是比较麻烦的,因为文档问答,答案来源于文档片段,如果回答错误,不能说明检索一定错误,反过来,如果答案正确,那么在检索环节,只要正确回答的文本“来自”所检索的文档片段,就应该算检索正确,但具体回答是否“来自”文档片段时,有技术上的问题,具体来说,有以下几点:

后面会出一篇专门的文章,专门介绍文档问答的检索、回答的性能。

回到本文,由于在构造“问题-回答”对时,特意记录了所使用的文档片段,这样就可以直接用这个文档片段的UUID计算,避免了上面的问题。

具体到检索的性能,一般使用HitRate进行评估,其中为测试集总数,第条数据检索命中时为1,否则为0。

由于知识片段本身的相似性比较高,因此,只检索一条一般是没法回答问题的。一般会检索Top-K个知识片段。具体到指标计算,就是对于每一条测试数据,检索个知识片段,只要有一个检索命中,那就为1,否则为0。

下面是Top1~Top8的HitRate计算:

test_df=qa_df[(qa_df[]==)&(qa_df[]==)]


top_k_arr=((,))
hit_stat_data=[]

idx,rowtqdm(test_df.iterrows(),total=(test_df)):
question=row[]
true_uuid=row[]
chunks=retrieve(vector_db,question,k=(top_k_arr))
retrieved_uuids=[doc.metadata[]docchunks]

ktop_k_arr:
hit_stat_data.append({
:question,
:k,
true_uuidretrieved_uuids[:k])
})

hit_stat_df=pd.DataFrame(hit_stat_data)
hit_stat_df.sample()

questiontop_khit
489美元的走势如何变化?21
682美联储加息对美国房地产市场风险排名产生了什么影响?30
344预计2023年欧元区的经济增速大概是多少?10
2302023年前8个月全球货物贸易量指数的变化情况如何?71
444美联储在2月1日的基点变动了多少?51

检索HitRate计算


hit_stat_df.groupby()[].mean().reset_index()



sns.barplot(x=,y=,data=hit_stat_df.groupby()[].mean().reset_index())




大家可以稍微留意一下这个指标,后续会陆续对检索进行优化,大家到时可以直观地观察到检索性能的提升。

5 问答

下面就是综合向量库、检索的完整问答流程了。

5.1 使用LCEL

这一步演示如何使用Langchain Expression Language,这种方式整个代码会相对简洁,但如果对流程不熟悉,遇到bug不好调试。

5.1.1 流式输出

Ollama
StrOutputParser
RunnablePassthrough
PromptTemplate

(docs):
.join(doc.page_contentdocdocs)

llm=Ollama(
model=,
base_url=
)

prompt_tmpl=











prompt=PromptTemplate.from_template(prompt_tmpl)
retriever=vector_db.as_retriever(search_kwargs={:})

rag_chain=(
{:retriever|format_docs,:RunnablePassthrough()}
|prompt
|llm
|StrOutputParser()
)

chunkrag_chain.stream():
(chunk,end=,flush=)

输出

2023年10月美国ISM制造业PMI指数较上个月大幅下降2.3个百分点。

5.1.2 非流式输出

(rag_chain.invoke())

输出

2023年10月美国ISM制造业PMI指数较上个月大幅下降2.3个百分点。

5.2 流程拆解

下面对整个过程,拆解成常规的Python代码:

(query,n_chunks=):
prompt_tmpl=










.strip()

chunks=retrieve(vector_db,question,k=n_chunks)
prompt=prompt_tmpl.replace(,.join([doc.page_contentdocchunks])).replace(,query)

llm(prompt),[doc.page_contentdocchunks]
prediction_df=qa_df[qa_df[]==][[,,,]]

answer_dict={}
idx,rowtqdm(prediction_df.iterrows(),total=(prediction_df)):
uuid=row[]
question=row[]
answer,context=rag(question,n_chunks=)
answer_dict[question]={
:uuid,
:row[],
:answer,
:context
}

prediction_df.loc[:,]=prediction_df[].apply(q:answer_dict[q][])
prediction_df.loc[:,]=prediction_df[].apply(q:answer_dict[q][])
prediction_df.sample()







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5