基础的RAG任务包含以下模块,包括:数据读取处理,Index,检索,prompt拼接,大模型推理。如下图所示:
在搭建RAG系统中,我们将使用到以下包:
pipinstalllangchain_communitytiktokenlangchain-openailangchainhubchromadblangchain
我们使用 WebBaseLoader模块处理数据,它采用urllib从 Web URL 加载 HTML 并使用BeautifulSoup解析出文本。
importbs4fromlangchain_community.document_loadersimportWebBaseLoaderloader=WebBaseLoader(web_paths=("https://data.eastmoney.com/report/zw_stock.jshtml?encodeUrl=35LdZWW1ERIe7AWLlyVZFHptPNDUH2qN4gEfzUIhYsc=","https://data.eastmoney.com/report/zw_stock.jshtml?encodeUrl=OPw8X34UDWQq6g0u70KgHW6e5Ad8C5kc3TYV6t9BZsw=","https://data.eastmoney.com/report/zw_stock.jshtml?encodeUrl=OPw8X34UDWQq6g0u70KgHbx8/qX6gdD4f6j3/4IEWIA="),bs_kwargs=dict(parse_only=bs4.SoupStrainer(class_=("detail-header","newsContent")#根据网页信息不同调整需要保留的字段)),)blog_docs=loader.load()#数据读取我们将文档拆分为 512 个字符的块,块之间有 128个字符的重叠。重叠有助于降低当前文本与其相关的上下文分离的概率。我们使用 RecursiveCharacterTextSplitter ,它将使用常用分隔符(如换行符)递归拆分文档,直到每个块的大小合适。
#Splitfrom langchain.text_splitter import RecursiveCharacterTextSplittertext_splitter = RecursiveCharacterTextSplitter.from_tiktoken_encoder(chunk_size=512,chunk_overlap=128)# Make splitssplits = text_splitter.split_documents(blog_docs)
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">创建索引(Indexing)
这个模块首先创建一个向量模块向量模型可以随意选择,后面将介绍怎么选择向量模型,本篇采用了OpenAIEmbeddings();然后创建一个向量库,用于储存文本和文本向量:
#Indexfromlangchain_openaiimportOpenAIEmbeddingsfromlangchain_community.vectorstoresimportChromavectorstore=Chroma.from_documents(documents=splits,embedding=OpenAIEmbeddings())
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">创建检索器
构建一个检索器,用于通过向量相似度检索片段,检索召回是整个系统的关键,决定了结果的上限:
retriever=vectorstore.as_retriever(search_type="similarity",search_kwargs={"k":6}))#测试一下检索的片段retrieved_docs=retriever.invoke("东方财富营收是多少")len(retrieved_docs)
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">创建模型
在这个部分,我们将创建两个模块,一是PROMPT模板,这个是根据任务来确定,相同的模型一个好的prompt会得到更好的结果;二是大模型模块,这个是整个系统的中央大脑,决定着整个系统是否智能,例子中使用的gpt-3.5-turbo,使用自己的模型可以看这篇文章RAG:Langchain中使用自己的LLM大模型;
from langchain import hubfrom langchain_openai import ChatOpenAIprompt = hub.pull("rlm/rag-prompt")# LLMllm=ChatOpenAI(model_name="gpt-3.5-turbo",temperature=0.01)
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">RAG生成流程ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;text-wrap: wrap;background-color: rgb(255, 255, 255);text-align: left;">前面已经构建好了索引、检索器、PROMPT模板和大模型,现在我们需要将整个过程组合起来:
from langchain_core.output_parsers import StrOutputParserfrom langchain_core.runnables import RunnablePassthrough#文本片段组合def format_docs(docs):return "\n\n".join(doc.page_content for doc in docs)rag_chain = ({"context": retriever | format_docs, "question": RunnablePassthrough()}| prompt| llm| StrOutputParser())for chunk in rag_chain.stream("东方财富的营收是多少"):print(chunk,end="",flush=True)
至此,我们完成了一个简单的RAG系统搭建,根据PROMPT的不同,我们可以针对我们的知识库做不同的任务,可以是问答、也可以是创作;通过知识库的辅助,我们的结果会更加的精确。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |