链载Ai

标题: 使用RAG技术构建企业级文档问答系统:切分(2)使用Embedding进行语义切分 [打印本页]

作者: 链载Ai    时间: 昨天 17:01
标题: 使用RAG技术构建企业级文档问答系统:切分(2)使用Embedding进行语义切分

1 概述

以往我们使用的文本切分方式,都是基于特定字符、或者特定长度的,而完全不考虑语义,这未免有点奇怪,而且从实践经验来看,使用特定字符或特定长度的切分方式,导致片段语义不连贯是非常明显的一个问题。

langchain-experimental库中有一个SemanticChunker,可以将句子转换为向量,并计算不同向量之间的相似性,来决定是否需要切分,由于向量可以代表句子的语义,因此这样切分也是语义切分。

langchain-experimental库的实现,来自另一位作者(后文称原作者):https://github.com/FullStackRetrieval-com/RetrievalTutorials/blob/main/tutorials/LevelsOfTextSplitting/5_Levels_Of_Text_Splitting.ipynb。

2 原理

SemanticChunker的切分原理是这样的,例如使用正则表达式,将原始文本切分后得到了一系列句子:

[sentence_1,sentence_2,sentence_3,sentence_4,sentence_5,sentence_6,sentence_7,sentence_8,sentence_9,...]

原作者共提出了两种方法:

注意:窗口大小为3,对应下面介绍的代码中SemanticChunker构造函数中buffer_size=1,因为会向前、后各取buffer_size个句子。

如此操作完之后,将横轴记为句子的index,纵轴为句子距离,就得到了下面的图:

然后将显著大于正常距离的点,作为切分点,就可以得到如下的切分位置,以及切片。

至于怎样的距离算显著,langchain-experimenal中提供了4种方法:

3 效果

从下图可以看出,使用Embedding的方式进行切分,对相邻片段使用层次聚类的切分效果最好,超过了Baseline(基础流程)。

4 核心代码

本文对应的代码已开源,地址在:

https://github.com/Steven-Luo/MasteringRAG/blob/main/split/02_embedding_based_sementic_splitter.ipynb

使用Embedding的切分,核心代码非常简单,准备好Embedding模型和要切分的文档后,两行代码就能搞定:

SemanticChunker


HuggingFaceBgeEmbeddings


embeddings=HuggingFaceBgeEmbeddings(
model_name=,
model_kwargs={:device},
encode_kwargs={:},

query_instruction=
)

OpenAIEmbeddings
embeddings=OpenAIEmbeddings()



text=(os.path.join(os.path.pardir,,,)).read()


text_splitter=SemanticChunker(
embedding_model
)
docs=text_splitter.create_documents([text])

特别注意:SemanticChunker这个切分器默认的参数,是为英文优化的,在中文上直接使用的话,是不work的,下面介绍一些重要的参数,以及在中文环境下要注意的点。

4.1 注意切分的正则表达式

SemanticChunker的构造器如下:

(BaseDocumentTransformer):











(
,
embeddings:Embeddings,
buffer_size:=,
add_start_index:=,
breakpoint_threshold_type:BreakpointThresholdType=,
breakpoint_threshold_amount:Optional[]=,
number_of_chunks:Optional[]=,
sentence_split_regex:=,
min_chunk_size:Optional[]=,
):
...

构造函数中有一个参数sentence_split_regex,用于先将文本切分成片段,从源代码中可以看出,它默认是对英文的句号、问号、感叹号进行切分的,而且是对比较规范的英文行文,也就是这三种标点后还跟空白字符的,对于中文,是无法正常切分的,使用中文时,首先要将这个正则表达式替换成能切分中文的,例如下面这样:

sentence_split_regex=

4.2 使用buffer_size控制窗口大小

原作者的实现,采用滑动窗口实现,上面在原理部分已经提到过,buffer_size来控制当前句子前、后各取几个句子组成一组来计算Embedding以及相似度。

4.3 注意最小切片大小

另一个要注意的点是min_chunk_size参数,不同于RecursiveCharacterTextSplitter这种从大向小切的方法,SemanticChunker是从一个个句子“合并”为大片段的,这就意味着如果一开始使用正则表达式切分后的句子很短,而它恰好又达到了切分的条件,最终会得到一些非常短的片段。

4.4 注意观察切片后的大小

使用SemanticChunker有时候可能会得到非常大的切片,远远超过了向量模型的长度限制,当然也可以换支持更大长度的向量模型,但句子太长其中的信息会被稀释,也未必一定会带来正向收益。原作者在Semantic Chunking的最后部分提到,可以对较大的进行二次切分,在我的样例代码中也包含了这部分,但并未带来正向收益,欢迎大家积极探索。

4.5 使用层次聚类

使用层次聚类是通过将number_of_chunks赋值为一个具体数字来控制的,而不是一个布尔值,使用方式类似如下:




text_splitter=SemanticChunker(
embedding_model,
number_of_chunks=number_of_chunks
)
docs=text_splitter.create_documents([text])







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5