链载Ai

标题: IBM推出文档处理利器Docling,基于LangChain打造RAG应用 [打印本页]

作者: 链载Ai    时间: 1 小时前
标题: IBM推出文档处理利器Docling,基于LangChain打造RAG应用

Docling 携手 LangChain 打造高效 RAG 系统。

人工智能应用持续发展,对文档信息的有效处理、理解与检索提出了更高要求。大语言模型虽已在诸多领域发挥重要作用,但在文档处理方面仍有提升空间。

本文详细阐述如何整合Docling 和 LangChain,创建检索增强生成(RAG)系统,以突破局限,为大语言模型赋能,提升其处理文档信息的能力。

1 Docling:IBM打造的文档处理神器

Docling是IBM推出的创新型开源库,变革了文档处理模式。

其特别之处在于,以单一且统一的接口搞定多种文档格式的处理。不管是PDF、Word文档,还是PPT、Excel表格、网页内容,Docling都能简化处理并理解它们。

Docling具备以下几个主要特性,使其极具价值:

2 RAG的重要性

检索增强生成(RAG)的重要性在于解决传统大语言模型(LLM)局限。

传统LLM虽强大但有不足:

RAG的作用:

3 RAG架构剖析

典型RAG系统有三个主要组件:

Docling与LangChain完美结合于此:Docling擅长文档处理,LangChain提供检索和生成组件的框架。

4 Docling适配RAG应用

在深入实现之前,有必要了解Docling适合RAG应用的缘由。Docling能够支持包括PDF、DOCX、PPTX、XLSX、图像、HTML等在内的多种通用格式;且具备先进的文档理解能力,能深入挖掘文档的内在信息。

Docling与LangChain可实现无缝集成,为构建RAG系统奠定了良好基础。

此外,其内置的OCR功能有助于处理扫描文档,而且不管文档格式如何,Docling都能保证文档表示的统一性,这些特点使得Docling成为RAG应用的理想之选。

5 动手构建RAG系统

步骤1:创建文档加载器

首先需要一个自定义加载器,用于连接 Docling 和 LangChain,其代码如下:

fromtypingimportIterator
fromlangchain_core.document_loadersimportBaseLoader
fromlangchain_core.documentsimportDocumentasLCDocument
fromdocling.document_converterimportDocumentConverter

classDoclingPDFLoader(BaseLoader):
def__init__(self, file_path: str | list[str])->None:
self._file_paths = file_pathifisinstance(file_path, list)else[file_path]
self._converter = DocumentConverter()

deflazy_load(self)-> Iterator[LCDocument]:
forsourceinself._file_paths:
dl_doc = self._converter.convert(source).document
text = dl_doc.export_to_markdown()
yieldLCDocument(page_content=text)

此加载器类的主要作用是把文档转换为 LangChain 可以处理的格式。在这个过程中,通过使用 Docling 的export_to_markdown()方法,能够保证文本表示的一致性,这一点很重要,能为后续处理提供稳定、统一的文本基础。

步骤2:文档拆分

为了有效检索,需要把文档拆分成可管理的块:

fromlangchain_text_splittersimportRecursiveCharacterTextSplitter

loader = DoclingPDFLoader(file_path="../data/docling-tech-report.pdf")
text_splitter = RecursiveCharacterTextSplitter(
chunk_size=1000,
chunk_overlap=200,
)

docs = loader.load()
splits = text_splitter.split_documents(docs)

在本示例中,使用了 docling 技术报告 pdf。

步骤3:设置嵌入

借助 Hugging Face 的嵌入来构建向量表示:

fromlangchain_huggingface.embeddingsimportHuggingFaceEmbeddings

embeddings = HuggingFaceEmbeddings(
model_name="BAAI/bge-small-en-v1.5"
)

步骤4:配置向量存储

这里选用 Milvus(https://milvus.io/)作为向量存储,如有需要也可更换为其他:

fromlangchain_milvusimportMilvus
URI ="./milvus_example.db"
vectorstore = Milvus.from_documents(
splits,
embeddings,
connection_args={"uri": URI},
drop_old=True,
)

步骤5:设置语言模型

我们会选用 Phi - 4:14B 的 4 位量化版本,并且以 Ollama 作为模型托管框架。务必先安装 Ollama,安装链接为 https://ollama.com/download。

然后使用 “ollama pull vanilj/Phi - 4:latest” 命令来拉取所需模型。接着,通过以下代码进行设置:

fromlangchain_ollamaimportOllamaLLM

llm = OllamaLLM(
model="vanilj/Phi-4:latest"
)

步骤6:构建RAG链

现在,我们要把前面的各个部分整合起来,构建一个完整的 RAG 管道:

fromtypingimportIterable
fromlangchain_core.output_parsersimportStrOutputParser
fromlangchain_core.promptsimportPromptTemplate
fromlangchain_core.runnablesimportRunnablePassthrough

defformat_docs(docs: Iterable[LCDocument]):
return"\n\n".join(doc.page_contentfordocindocs)

retriever = vectorstore.as_retriever()

prompt = PromptTemplate.from_template("""
Context information is below.
---------------------
{context}
---------------------
Given the context information and not prior knowledge, answer the query.
Query: {question}
Answer:
""")

rag_chain = (
{"context": retriever | format_docs,"question": RunnablePassthrough()}
| prompt
| llm
| StrOutputParser()
)

6 使用RAG系统

现在就能对文档进行查询了,使用以下代码:

response = rag_chain.invoke("Which AI models have been released by docling team?")
print(response)

7 最佳实践和优化技巧

用Docling和LangChain构建RAG应用时,请参考这些要点:

8 结语

Docling强大的文档处理能力与LangChain灵活的RAG框架相结合,为构建复杂文档类AI应用开启新可能。无论是文档问答、研究助手还是知识管理工具,二者组合都能夯实RAG应用基础。

Docling正积极开发LangChain原生扩展,将让集成更简便。未来会有这些功能:

推荐书单

《大模型RAG实战:RAG原理、应用与系统构建》

内容简介这是一本全面讲解RAG技术原理、实战应用与系统构建的著作。作者结合自身丰富的实战经验,详细阐述了RAG的基础原理、核心组件、优缺点以及使用场景,同时探讨了RAG在大模型应用开发中的变革与潜力。书中不仅揭示了RAG技术背后的数学原理,还通过丰富的案例与代码实现,引导读者从理论走向实践,轻松掌握RAG系统的构建与优化。无论你是深度学习初学者,还是希望提升RAG应用技能的开发者,本书都将为你提供宝贵的参考与指导。通过阅读本书,你将掌握以下知识:?透彻理解RAG的召回和生成模块算法?高级RAG系统的技巧?RAG系统的各种训练方式方法?深入了解RAG的范式变迁?实战0基础搭建RAG系统?实战高级RAG系统微调与流程搭建







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5