随着AI热度愈发火热,越来越多的产品在AI的“赋能”下不断革新和进化。
AI技术的飞速发展不仅改变了人们的生活方式,也大大提升了各行各业的生产效率和创新能力。
在此背景下,我们不妨自己动手丰衣足食,搭建一套属于自己的本地的AI ChatBot?顺便学习下“高大上”的AI技术,亲身体验和把握这股“科技潮流”?
本篇,我们将通过全局的视角来看一下 “基于本地上传的文档进行QA问答” 类似的案例,需要学习哪些知识点以及会用到哪些技术栈。
目前,根据我所了解到的知识,市面上深层次的ChatBot主流实现框架基本都是大同小异。
本地大模型 + LangChain + 前端界面
结合RAG框架:上传本地文件 + 文件切片 + Embedding向量编码 + LLM大语言模型
首先,从本地加载文档(upload & loader),比如:pdf、txt、csv、md等
从许多不同来源加载文档,LangChain提供了100多种不同的文档加载器。
加载完成后,对文档进行处理,提取文档信息
提取完文档信息后,进行文本切分
为什么要切分文本?
因为有时候我们的文档内容比较多,比如一本书,这种情况下不可能一次性去处理,就需要将文本切成一块一块的,分块处理。
如何进行合理切分?
我们通常希望将主题相同的文本片段放在一块。例如,Markdown文件是由h1、h2、h3等多级标题组织的,我们可以根据Markdown标题分割文本内容,把标题相同的文本片段组织在一块。借助LangChain的MarkdownHeaderTextSplitter文本切割器实现。
文档切割后得到文本块
对切割完成后的文本块进行Embedding向量编号
Embedding这里我们会用到很多模型,比如可以调用OpenAI的接口(收费),还可以用HuggingFaceHub(免费)等。
将所有文本的编码全部存储到向量数据库中
例如:Faiss、Pinecone、Chroma、Milvus等。
提问,输入一个问题Embedding编码相似性计算,即用户的提问跟数据库里哪些文本的相关性最高文本召回,把达到某一个阈值的相关文本全部召回上下文的模板向大模型LLM提问答案这种实现方式有什么好处呢?
以上,完。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |