返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

搭建RAG系统就这么简单:LangChain|RAG是什么?

[复制链接]
链载Ai 显示全部楼层 发表于 4 小时前 |阅读模式 打印 上一主题 下一主题


ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">RAG是什么

"RAG"(Retrieval-Augmented Generation)是一种结合了检索(Retrieval)和生成(Generation)的人工智能技术,它在大模型中被需要的原因包括:
知识丰富性:大模型通过RAG可以访问大量的外部知识库,这有助于提高模型回答问题的准确性和深度。
实时信息获取:由于大模型通常是在大量数据上预训练的,它们可能不包含最新的信息。RAG可以通过检索最新的数据来弥补这一点。
减少偏见和错误:通过检索可靠的信息源,RAG有助于减少模型生成的偏见或错误信息。
提高泛化能力:RAG可以使模型在面对未见过的问题或领域时,通过检索相关信息来提高其泛化能力。
应对长尾问题:对于那些低频或非常规的问题,RAG可以通过检索来提供更加准确的答案,而不需要模型在训练数据中直接学习到。
RAG是一种强大的技术,它通过结合检索和生成的优势,使得大模型能够提供更加准确、丰富和及时的信息。随着技术的发展,RAG在大模型中的应用将继续扩展,以满足不断增长的复杂性和多样性需求。

基础的RAG任务包含以下模块,包括:数据读取处理,Index,检索,prompt拼接,大模型推理。如下图所示:

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">环境搭建

在搭建RAG系统中,我们将使用到以下包:

pipinstalllangchain_communitytiktokenlangchain-openailangchainhubchromadblangchain

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">数据读取

我们使用 WebBaseLoader模块处理数据,它采用urllib从 Web URL 加载 HTML 并使用BeautifulSoup解析出文本。

importbs4fromlangchain_community.document_loadersimportWebBaseLoaderloader=WebBaseLoader(web_paths=("https://data.eastmoney.com/report/zw_stock.jshtml?encodeUrl=35LdZWW1ERIe7AWLlyVZFHptPNDUH2qN4gEfzUIhYsc=","https://data.eastmoney.com/report/zw_stock.jshtml?encodeUrl=OPw8X34UDWQq6g0u70KgHW6e5Ad8C5kc3TYV6t9BZsw=","https://data.eastmoney.com/report/zw_stock.jshtml?encodeUrl=OPw8X34UDWQq6g0u70KgHbx8/qX6gdD4f6j3/4IEWIA="),bs_kwargs=dict(parse_only=bs4.SoupStrainer(class_=("detail-header","newsContent")#根据网页信息不同调整需要保留的字段)),)blog_docs=loader.load()#数据读取


ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">文本切块

我们将文档拆分为 512 个字符的块,块之间有 128个字符的重叠。重叠有助于降低当前文本与其相关的上下文分离的概率。我们使用 RecursiveCharacterTextSplitter ,它将使用常用分隔符(如换行符)递归拆分文档,直到每个块的大小合适。

#Splitfrom langchain.text_splitter import RecursiveCharacterTextSplittertext_splitter = RecursiveCharacterTextSplitter.from_tiktoken_encoder(chunk_size=512,chunk_overlap=128)
# Make splitssplits = text_splitter.split_documents(blog_docs)

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">创建索引(Indexing)

这个模块首先创建一个向量模块向量模型可以随意选择,后面将介绍怎么选择向量模型,本篇采用了OpenAIEmbeddings();然后创建一个向量库,用于储存文本和文本向量:

#Indexfromlangchain_openaiimportOpenAIEmbeddingsfromlangchain_community.vectorstoresimportChromavectorstore=Chroma.from_documents(documents=splits,embedding=OpenAIEmbeddings())

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">创建检索器

构建一个检索器,用于通过向量相似度检索片段,检索召回是整个系统的关键,决定了结果的上限:

retriever=vectorstore.as_retriever(search_type="similarity",search_kwargs={"k":6}))
#测试一下检索的片段retrieved_docs=retriever.invoke("东方财富营收是多少")len(retrieved_docs)

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">创建模型

在这个部分,我们将创建两个模块,一是PROMPT模板,这个是根据任务来确定,相同的模型一个好的prompt会得到更好的结果;二是大模型模块,这个是整个系统的中央大脑,决定着整个系统是否智能,例子中使用的gpt-3.5-turbo,使用自己的模型可以看这篇文章RAG:Langchain中使用自己的LLM大模型;

from langchain import hubfrom langchain_openai import ChatOpenAI
prompt = hub.pull("rlm/rag-prompt")# LLMllm=ChatOpenAI(model_name="gpt-3.5-turbo",temperature=0.01)

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">RAG生成流程

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;text-wrap: wrap;background-color: rgb(255, 255, 255);text-align: left;">前面已经构建好了索引、检索器、PROMPT模板和大模型,现在我们需要将整个过程组合起来:

from langchain_core.output_parsers import StrOutputParserfrom langchain_core.runnables import RunnablePassthrough
#文本片段组合def format_docs(docs):return "\n\n".join(doc.page_content for doc in docs)

rag_chain = ({"context": retriever | format_docs, "question": RunnablePassthrough()}| prompt| llm| StrOutputParser())
for chunk in rag_chain.stream("东方财富的营收是多少"):print(chunk,end="",flush=True)

至此,我们完成了一个简单的RAG系统搭建,根据PROMPT的不同,我们可以针对我们的知识库做不同的任务,可以是问答、也可以是创作;通过知识库的辅助,我们的结果会更加的精确。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ