之前的文章提到,我们将文本切分划分为五个层级,并介绍了前三个层级的实现和一些基础知识。本篇文章开始,我们将介绍第四层级的内容语义切分;本篇文章将介绍基于向量模型的语义切分。ingFang SC", system-ui, -apple-system, BlinkMacSystemFont, "Helvetica Neue", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;text-wrap: wrap;background-color: rgb(255, 255, 255);visibility: visible;">文本切分五个层级:Level 1:Character Splitting-简单的字符长度切分 Level 2:Recursive Character Text Splitting-通过分隔符切分,然后递归合并 Level 3 ocument Specific Splitting- 针对不同文档格式切分(PDF, Python, Markdown) Level 4:Semantic Splitting-语义切分 Level 5:Agentic Splitting-使用代理实现自动切分
这个 切分器 的工作原理是确定何时分隔句子。这是通过查找任意两个句子之间的向量差异来完成的。当该差异超过某个阈值时,它们将被拆分。后面演示它是怎么实现的: ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">搭建语义切分流程数据加载 #Thisisalongdocumentwecansplitup.withopen("state_of_the_union.txt")asf:state_of_the_union=f.read()创建拆分器 要实例化SemanticChunker,我们必须指定一个嵌入模型。下面我们将使用OpenAIEmbeddings,也可以使用自己的模型。 from langchain_experimental.text_splitter import SemanticChunkerfrom langchain_openai.embeddings import OpenAIEmbeddings
text_splitter = SemanticChunker(OpenAIEmbeddings())
拆分文本 docs=text_splitter.create_documents([state_of_the_union])print(docs[0].page_content) 这样我们就完成了基于向量的语义切分;下面介绍其参数控制: ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">切分的几种形式在切分的过程中,我们怎么控制切分的粒度?有几种方法可以确定该阈值是什么?这些方法可以由kwarg的breakpoint_threshold_type控制。默认的拆分方式是基于百分位数。在这种方法中,计算句子之间的所有差异,然后拆分任何大于 X 百分位数的差异。text_splitter=SemanticChunker(OpenAIEmbeddings(),breakpoint_threshold_type="percentile")docs=text_splitter.create_documents([state_of_the_union])print(docs[0].page_content) 标准差 在此方法中,任何大于 X 个标准差的差值都将被拆分。 text_splitter=SemanticChunker(OpenAIEmbeddings(),breakpoint_threshold_type="standard_deviation")docs=text_splitter.create_documents([state_of_the_union])print(docs[0].page_content) 四分位距 在这种方法中,四分位数距离用于分割块。 text_splitter=SemanticChunker(OpenAIEmbeddings(),breakpoint_threshold_type="interquartile")docs=text_splitter.create_documents([state_of_the_union])print(docs[0].page_content) 梯度 在这种方法中,距离的梯度与百分位数方法一起用于分割块。当块彼此高度相关或特定于某个领域时,此方法非常有用。这个想法是在梯度数组上应用异常检测,使分布变得更宽,并且易于识别高度语义数据中的边界。 text_splitter=SemanticChunker(OpenAIEmbeddings(),breakpoint_threshold_type="gradient")docs=text_splitter.create_documents([state_of_the_union])print(docs[0].page_content) 以上介绍了langchain基于向量的语义切分实现,后续将介绍具体的算法实现和其它语义切分方式,敬请期待。 |