|From Local to Global: A Graph RAG Approach to Query-Focused Summarization
论文链接:https://arxiv.org/abs/2404.16130
代码链接:https://github.com/microsoft/graphrag
检索增强生成(RAG)可从外部知识源检索信息以回答问题,但在处理针对整个文本语料库的全局问题(如 “数据集中的主要主题是什么?”)时存在不足,因为这本质上是一个查询聚焦的摘要(QFS)任务,而非简单的检索任务。现有的 QFS 方法又难以扩展到典型 RAG 系统索引的大量文本。因此论文旨在结合检索增强生成(RAG)和聚焦查询的摘要(QFS)技术,解决在处理大规模文本时回答全局问题的挑战。核心内容包括:
文本分块:将源文档分割为合适粒度的文本块,需平衡长文本块减少 LLM 调用但可能降低召回率的问题。
提取元素实例:使用多部分 LLM 提示从文本块中识别和提取图节点(如实体)和边(如关系)实例,可通过提供特定领域的少量示例来定制提示,并通过多轮 “收集” 提高提取效果。
生成元素摘要:利用 LLM 将提取的实例转换为描述性文本摘要,处理可能的实体重复问题,并形成与传统知识图不同的图索引。
划分图社区:将上一步创建的索引构建为无向加权图,使用社区检测算法(如 Leiden 算法)将其划分为紧密相关节点的社区,以实现分治式的全局摘要。
生成社区摘要:为 Leiden 层次结构中的每个社区创建摘要,根据社区级别和元素摘要Token数采用不同的生成方法,这些摘要可用于理解数据集结构或回答问题。
生成最终答案:给定用户查询,先准备社区摘要并分块,然后并行生成中间答案并筛选,最后将有用的中间答案汇总为最终答案返回给用户。
比较了 Graph RAG 的四个层次社区摘要(C0-C3)、直接对源文本应用 Map-Reduce 方法(TS)和朴素的 “语义搜索” RAG 方法(SS)六种条件,Graph RAG 在全面性和多样性上优于朴素 RAG,C1-C3 在这两个指标上也比 TS 有轻微改进,且在 Token 成本上更具优势。根级社区摘要在迭代问答中高效且在全面性和多样性上优于朴素 RAG。
|Multi-Meta-RAG: Improving RAG for Multi-Hop Queries using Database Filtering with LLM-Extracted Metadata
论文链接:https://arxiv.org/abs/2406.13213v2
代码地址:https://github.com/mxpoliakov/multi-meta-rag
传统的 RAG 应用程序在回答多跳问题方面表现不佳,这些问题需要检索和推理支持证据的多个元素。论文引入了 Multi-Meta-RAG ,该方法使用数据库过滤和 LLM 提取的元数据来改进 RAG 从各种来源中选择与问题相关的相关文档。核心内容包括:
提取相关查询元数据:使用数据库过滤和LLM提取的元数据来提高文档选择的相关性,利用辅助 LLM 通过构建 Few-Shot Prompt 提取文章来源和发布日期等元数据,其中文章来源是主要的过滤字段,发布日期在部分查询中提取。实验中使用 ChatGPT进行提取,平均每个查询耗时 0.7 秒。
改进块选择:将 MultiHop-RAG 知识库中的文章分割成块,转换为向量存储在支持元数据过滤的向量数据库中。在检索阶段,结合元数据过滤和嵌入模型检索最相关的块,并使用重排序模块进一步筛选。
使用两个性能较好的嵌入模型进行测试,结果表明 Multi-Meta-RAG 在所有核心指标上上均有显著提升,在LLM 响应生成实验上,选取 GPT-4 和 Google PaLM 进行实验,与基线 RAG 相比,两种模型的准确性都有大幅提高。但是这个方法也存在一些局限性,比如它需要特定领域和格式的问题集,还需要额外的推理时间来提取元数据。不过因为它简单易懂、效果显著的方法,被langchain官方点名,受很多评论推荐。
|KAG: Boosting LLMs in Professional Domains via Knowledge Augmented Generation论文链接:https://arxiv.org/abs/2409.13731
代码地址:https://github.com/OpenSPG/KAG
RAG 技术虽有助于 LLMs 获取领域知识并构建应用,但存在向量相似性与知识推理相关性差距及对知识逻辑不敏感等问题,在专业领域难以提供准确答案。知识图谱具有组织信息和推理的优势,可弥补 RAG 的不足,从而引出 KAG 框架,核心内容包括:
KAG-Builder:负责构建离线索引,通过 LLMFriSPG 实现知识表示升级与结构 - 文本块相互索引,经信息获取、语义对齐和存储写入流程为后续提供基础。
KAG-Solver:负责核心推理,借逻辑形式引导混合推理,整合多类推理,用多轮求解与知识对齐解决复杂问题并提升准确性。
KAG-Model :负责通用模型优化,着重增强 NLU、NLI 和 NLG 能力,借助数据集与指令策略训练,引入 Onepass Inference 提升性能与效率。
聚焦于优化自然语言理解(NLU)、自然语言推理(NLI)和自然语言生成(NLG)三种能力,还探索了将多个推理过程集成到单个推理中的方法,并通过 Onepass Inference 模型提高性能和效率。在支付宝电子政务服务场景中应用 KAG 框架构建问答应用,在处理行政流程相关问题时,相比 NaiveRAG,KAG 在完整性和准确性上有显著提高,同时基于支付宝健康管理场景开发医疗问答应用,通过使用严格约束的模式构建知识图谱和逻辑形式推理等方法,在处理疾病、症状等相关问题时取得了较高的召回率和准确率。
|RAPTOR: Recursive Abstractive Processing for Tree-Organized Retrieval
论文链接:https://arxiv.org/abs/2401.18059
代码地址:https://github.com/parthsarthi03/raptor
大多数现有方法仅从检索语料库中检索短的连续块,限制了对整个文档上下文的整体理解。RAPTOR(Recursive Abstractive Processing for Tree-Organized Retrieval)引入了一种新方法,即递归嵌入、聚类和总结文本块,从下往上构建具有不同总结级别的树。在推理时,RAPTOR 模型从这棵树中检索,整合不同抽象级别的长文档中的信息。主要创新内容包括:
软聚类方法:允许文本块跨多个聚类,基于高斯混合模型(GMMs)和UMAP技术进行降维,以捕捉文本数据的复杂结构和关系,从而优化文本聚类效果。
递归的向量分析:精准地对文本块进行聚类,并提炼出这些聚类的核心摘要,自下而上地构建出一个结构化的树形模型。在此树中,相近的节点自然聚集形成兄弟关系,而它们的父节点则承载着整个集群的概要性文本信息。这种设计确保了文本信息的层次化和结构化表达,便于理解和检索。
在推理时,RAPTOR 模型从这棵树中检索,整合不同抽象级别的长文档中的信息,上层节点在处理主题或多跳查询时重要,全树搜索效果优于仅关注特定层的检索策略,体现了树结构在处理不同类型问题上的优势。RAPTOR 在结合不同检索器和语言模型时,均优于传统检索增强方法,在多个指标和任务上取得新的最优结果,具有计算效率高、能处理长复杂文本等优点。
|LightRAG: Simple and Fast Retrieval-Augmented Generation
论文链接:https://arxiv.org/abs/2410.05779
代码地址:https://github.com/HKUDS/LightRAG
RAG系统存在显著的局限性,包括依赖于平面数据表示和缺乏足够的上下文感知能力,这可能导致答案碎片化,无法捕捉复杂的相互依赖关系。为了解决这些挑战,本论文提出了LightRAG,将图结构整合到文本索引和检索过程中。这一创新框架采用了双层检索系统,从低层次和高层次的知识发现中增强了全面信息检索。LightRAG 架构的核心内容包括:
基于图的文本索引:将文档分割,利用大语言模型识别和提取实体及关系,创建知识图谱。包括提取实体和关系、生成键值对和去重三个步骤,具有全面信息理解、增强检索性能和快速适应增量知识库等优势。
双层检索范式:生成详细和抽象级别的查询键,包括低层级检索特定实体及关系和高层级检索更广泛主题。通过结合图结构和向量表示,提高检索效率和结果相关性。
检索增强答案生成:利用检索信息和通用大语言模型生成答案,并整合上下文和查询,将用户查询与多源文本合并,LLM生成符合查询意图的信息性答案。
增量知识库的快速适应:当有新文档加入时,使用与之前相同的图基索引步骤处理新文档,生成新的知识图谱数据。将新知识图谱数据与原有知识图谱合并,实现新数据的无缝整合,避免重建整个索引图,减少计算开销,实现新数据的快速整合。
在大规模语料库和复杂查询中,基于图的 RAG 系统(如 LightRAG 和 GraphRAG)优于基于块的检索方法,LightRAG 在多样性指标上表现突出,且在处理复杂查询和提供全面信息方面优于 GraphRAG,LightRAG 在索引和检索过程中使用更少的Token和 API 调用,在增量数据更新阶段效率更高。
|Simple is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation
论文链接:https://arxiv.org/abs/2410.20724
代码地址:https://github.com/Graph-COM/SubgraphRAG
目前基于知识图谱的 RAG 备受关注,但现有框架在检索有效性和效率的平衡上存在不足。知识图谱的图结构在组织知识方面具有优势,但从其复杂结构中检索信息面临挑战,如传统文本检索方法无法满足复杂推理任务需求,基于 KG 的 RAG 计算成本高,且提取的结构信息需平衡覆盖关键证据和不超出 LLM 推理能力。论文提出SubgraphRAG 框架,包括:
子图检索:将子图检索问题转化为可学习的分布问题,采用轻量级多层感知器(MLP)结合并行三元组评分机制,并通过方向距离编码(DDE)等技术提高检索效率和效果。检索的子图形式灵活、大小可根据查询和 LLM 能力调整。
LLM 推理:利用 LLM 对检索到的子图进行推理,通过将子图中的三元组线性化后融入提示,引导 LLM 基于子图进行推理和回答,并生成基于知识的解释。避免了对 LLM 的微调,保持了模型的通用性和对不同知识图谱的适应性。
在检索有效性上,SubgraphRAG 远超其他方法。如在处理 GPT-4o 标注的三元组时,RoG 性能大幅下降,而 SubgraphRAG 保持稳定,表明其三元组选择机制更灵活有效。在效率方面,虽比余弦相似度基线稍慢,但比其他基线快一到两个数量级,且在不同数据集间的泛化能力突出。在多跳推理问题上表现突出,能更好利用 LLMs 推理能力,在答案真实性评估和解释生成方面也表现优异。
|Iteratively Refined Early Interaction Alignment for Subgraph Matching based Graph Retrieval
论文链接:https://nips.cc/virtual/2024/poster/93261
代码链接:https://github.com/structlearning/isonetpp
基于子图同构的图检索在分子指纹检测、场景图检索和电路设计等领域有应用,但关键挑战是如何高效地对图进行评分。现有方法如 IsoNet 和 GMN 等存在不足,如 GMN 未明确推断对齐、注意力机制导致非单射映射和过平滑等问题,这促使研究新的方法。本论文提出一种用于基于子图同构的图检索的早期交互神经网络。在图检索任务中,需要从图集中识别出包含与给定查询图同构子图的图,而 IsoNet++ 通过创新的技术在该任务上取得了良好效果。核心内容如下:
子图同构与 Gromov - Wasserstein 距离优化:将子图同构任务表示为二次分配问题或 Gromov - Wasserstein 距离优化任务,通过特定公式计算成本和相关性距离,并可使用投影梯度下降更新对齐,但存在一些问题如无法捕捉密集特征的覆盖成本等。
IsoNet++(Node) 设计:包括节点对伙伴交互更新节点嵌入、多轮懒惰细化节点对齐、使用早期交互 GNN 更新节点表示以及基于远距离监督训练模型等步骤,还介绍了多层急切对齐变体及计算复杂度分析。
IsoNet++(Edge) 扩展:扩展 IsoNet++(Node) 到边缘对齐,包括多轮细化边缘对齐、边缘对齐诱导的早期交互 GNN 等部分,与节点版本类似但在嵌入和交互上基于边缘操作。
将对齐建模为显式数据结构,通过在两个输入图内和之间传递消息计算节点嵌入,并在多轮中懒惰更新对齐,每轮基于当前对齐状态运行分层 GNN,结束后更新对齐。考虑节点对(而非单个节点)作为潜在伙伴,利用节点对之间的边存在与否信息来细化对齐,使节点嵌入能捕获更多信息。结果发现IsoNet++(Node) 和 IsoNet++(Edge) 在所有数据集上显著优于基线方法,边缘对齐效果更好;懒惰多轮更新优于多层更新;节点对伙伴交互优于节点伙伴交互;多轮更新比多层更新更能有效细化对齐。
|Think-on-Graph 2.0: Deep and Faithful Large Language Model Reasoning with Knowledge-guided Retrieval Augmented Generation
论文链接:https://arxiv.org/abs/2407.10805v6
代码链接:https://github.com/IDEA-FinAI/ToG-2
LLMs在构建类似人类对复杂任务洞察力方面仍面临挑战,而解决这些任务往往需要有动机的、持续的努力来理解对象、数字、概念和事件之间的联系,以便预测它们的轨迹并有效行动。遇到的问题主要包括浅层相关性捕获,聚合多样化事实的困难,处理复杂逻辑的能力不足等等,为解决这些挑战,本文提出了Think-on-Graph 2.0 (ToG2.0),通过知识图谱引导的知识检索实现深度和可解释的推理。核心内容包括:
初始化:从问题中提取实体并链接到 KG,选择合适的主题实体,提取相关文档块,让 LLM 评估信息是否足以回答问题。
混合知识探索:包括知识引导的图搜索和知识引导的上下文检索两个主要部分。通过在 KG 上探索关系和实体,以及利用文档计算相关性得分,来迭代地协调和紧密耦合异构知识。
混合知识推理:在每次迭代结束时,用找到的所有知识提示 LLM 评估是否足以回答问题,若不足则继续检索或重构查询。
在多个知识密集型推理基准数据集和自建的 ToG-FinQA 数据集上进行评估,使用精确匹配(EM)和准确率(Acc)等指标,与多种方法比较,包括无外部知识的 LLM 方法、文本型 RAG、KG 型 RAG 和其他混合 RAG 方法。ToG-2 在多个数据集上优于其他基线方法,能提升较小模型的性能,在不同Baseline上也有良好表现。
ToG2.0有效地将文档中的非结构化知识与知识图谱中的结构化洞察力结合起来,作为增强复杂问题解决能力的路线图。通过将问题与知识图谱对齐并将其作为导航工具,深化并细化了RAG范式,不仅确保了事实一致性层面的语义相似性,还促进逻辑一致性层面的长距离关联。这种范式使LLM在推理和问题解决时更接近人类:检查当前线索并根据其现有的知识框架关联潜在实体,不断深入主题直到找到答案。
|CoTKR: Chain-of-Thought Enhanced Knowledge Rewriting for Complex Knowledge Graph Question Answering
论文链接:https://aclanthology.org/2024.emnlp-main.205/
代码链接:https://github.com/wuyike2000/CoTKR
在 RAG 范式下的 KGQA 任务中,关键挑战是将知识图谱中的子图转换为 LLMs 能理解的自然语言,即知识重写(KR),但现有方法存在冗余、遗漏和语义不匹配等问题。论文提出CoTKR 框架,主要内容包括:
CoTKR 方法:在问答框架中,从知识图谱检索问题相关子图后,知识重写器交替进行推理(分解问题确定所需知识)和总结(根据推理结果总结相关知识)操作,逐步生成知识表示。通过交替进行推理和总结操作,以交错方式生成推理痕迹和相应知识,提高知识表示质量,解决单步知识重写的局限性。
PAQAF 训练策略:包括两个阶段,第一阶段用 ChatGPT 生成的知识表示指导知识重写器的监督微调;第二阶段通过 PAQAF,即候选知识表示采样、基于问答反馈的偏好标注、基于 ChatGPT 的数据增强和直接偏好优化,来优化知识重写器。利用问答反馈来评估知识表示质量,构建偏好对并通过直接偏好优化(DPO)来优化知识重写器,缩小知识重写器和问答模型之间的偏好差距。
CoTKR 及 CoTKR+PAQAF 在多数评估指标和大语言模型上的表现优于其他知识重写基线方法,证明了其知识重写策略的有效性,偏好对齐策略(PAQAF)可缩小知识重写器与问答模型之间的偏好差距,增强知识表示的质量,进而提升问答性能。最后,精心设计的知识表示对 KGQA 中的大语言模型至关重要。
|Graph of Records: Boosting Retrieval Augmented Generation for Long-context Summarization with Graphs
论文链接:https://arxiv.org/abs/2410.11001
代码地址:https://github.com/ulab-uiuc/GoR
RAG 虽能通过检索文本块辅助总结,但现有方法未充分利用 LLM 生成的历史响应,这些响应包含潜在有价值信息。利用历史响应面临两个挑战:一是历史响应与文本之间的复杂隐式关联难以揭示,常用的文本嵌入方法在处理此类关联时性能不佳;二是长文本全局总结缺乏有效的监督信号,难以直接将全局参考摘要的监督信号反向传播到模型中以优化相关文本块的选择。论文提出GoR,核心内容包括:
图构建:首先使用 LLMs 基于长文档中的文本块模拟用户查询,生成有意义且多样的查询,避免使用 doc2query 方法的局限性。然后利用这些查询执行 RAG 操作,将检索到的文本块与相应的 LLM 生成的响应连接起来构建图,使历史响应成为连接文本块的桥梁,更好地探索它们之间的关联。
自监督训练目标:鉴于一些随机游走或传播算法不可微,采用图神经网络(GNNs)学习节点嵌入。受 BERTScore 启发,使用它对节点进行排序,使节点嵌入能从参考摘要的间接监督信号中受益。具体设计了对比损失和辅助成对排名损失,对比损失通过 InfoNCE 使查询与正样本在语义嵌入空间更接近,辅助成对排名损失对节点排名施加更严格约束。总体训练目标是两者之和,且该方法训练成本低,无需人工标注标签。
在 AcademicEval、QMSum、WCEP 和 BookSum 四个长文本总结数据集上进行评估,采用 Rouge-1、Rouge-2 和 Rouge-L 作为评估指标。按照 RAG 标准流程处理数据,如使用 TokenTextSplitter 分割文档,设置查询模拟和检索的相关参数等。与包括 Node2Vec、BM25、DPR 等 12 种基线方法进行比较,探索了多种 GNN 架构,发现图注意力网络(GAT)性能最佳,因其在更新节点嵌入时考虑了相邻节点的重要性,能有效捕捉节点的关键信息,而其他架构如 GraphSAGE 因邻居采样机制不稳定表现较差。通过增加训练时模拟查询的数量进行实验,发现随着模拟查询数量增加,R-L 指标呈上升趋势。对比了自监督训练和使用全局参考摘要的监督训练,结果表明自监督训练损失更低,因为全局参考摘要与许多节点相关性高,易使模型优化方向混淆,而自监督标签内容更聚焦,能更有效地引导模型优化。
|RAG-Instruct: Boosting LLMs with Diverse Retrieval-Augmented Instructions
论文链接:https://arxiv.org/abs/2501.00353
代码地址:https://github.com/FreedomIntelligence/RAG-Instruct
当前,大型语言模型通过文档检索与外部知识的整合来减少生成内容中的不准确或幻觉现象,并以此提升在特定任务上的性能。然而,现有的模型在覆盖检索增强生成(RAG)场景和任务多样性方面仍存在局限性。为了解决这些问题,论文引入了一种新的方法RAG-Instruct,旨在克服现有RAG技术在处理复杂、多样化场景及任务时的不足。核心内容包括:
定义多样化的RAG范式:确立了五种不同的RAG查询模式,以涵盖广泛的查询-文档关系,适应更多样化的应用场景。这些模式包括无文档查询、单文档支持查询、多文档支持查询、单文档答案查询以及多文档答案查询。
指令模拟技术的应用:通过利用已有的指令数据集(例如SlimOrca和Evol Instruct),开发了指令模拟技术,用以指导RAG指令的创建。这不仅丰富了合成数据的多样性,也提升了其质量。
大规模合成数据集的构建:基于Wikipedia语料库,构建了一个包含40,000个合成RAG指令的数据集。每个合成案例均涉及选择一个RAG范式、一条模拟指令以及一组源文档,并使用先进的GPT-4o模型生成相应的指令与回应。
在涵盖11项任务的实验中,包括知识密集型问答、多步推理和领域特定基准测试,采用零样本评估方式对模型进行了测试。结果显示,RAG-Instruct相较于多种基线模型,无论是闭源的大型语言模型(LLM),如GPT-4o及其迷你版本,还是开源的RAG模型(例如Llama系列)和指令调优模型(如Qwen2.5-7B-Instruct)均表现出色。尤其值得注意的是,在多个任务上,RAG-Instruct的表现超越了强大的闭源LLMs;而在所有四个类别任务中,特别是多跳推理任务和特定领域的任务上,它也优于专门设计的RAG模型。此外,相比开源的指令调优模型,RAG-Instruct同样展现了更佳的性能,证明了新构建的RAG指令数据集对于增强模型RAG能力的有效性。
|GNN-RAG: Graph Neural Retrieval for Large Language Model Reasoning
论文链接:https://arxiv.org/abs/2405.20139
代码地址:https://github.com/cmavro/GNN-RAG
知识图谱(Knowledge Graphs, KGs)通过三元组结构——即主体、关系和客体的组合,来表述由人工构建的事实性知识,并且这些三元组共同构成了一种图形化的知识表示。知识图谱问答系统(KGQA)的任务是依据知识图谱中编码的信息,对用户提出的自然语言问题作出回应。大型语言模型(Large Language Models, LLMs)因其卓越的自然语言处理能力,在回答问题方面表现出色,成为这一领域的前沿技术。同时,图神经网络(Graph Neural Networks, GNNs)也因为其处理知识图谱中复杂图形数据的能力而在KGQA中得到广泛应用。论文提出了GNN-RAG方法,核心内容包括:
GNN 部分:选用处理复杂图信息能力强的 GNN,通过节点分类优化参数,依据节点最终表示和概率阈值确定候选答案及推理路径,不同 GNN 因问题 - 关系匹配操作不同会获取不同路径,实验中训练了不同 LM 配置的 GNN 模型。
LLM 部分:将 GNN-RAG 获取的推理路径文本化后输入下游 LLM,针对 LLM 对输入提示模板和图信息文本化方式的敏感性,采用 RAG 提示调整方法对 LLaMA2-Chat-7B 模型微调。
用链接实体和 PageRank 算法提取子图,采用 ReaRev 进行 GNN 推理,RoG 进行 RAG 提示调整,用 Hit、Hits@1 和 F1 指标评估,在多跳和多实体问题上表现优异,GNN - RAG 比 RoG 在 F1 指标上有明显提升,GNN - RAG + RA 进一步提高性能,GNN - 检索更高效有效,结合 GNN 和 LLM 诱导路径的检索增强效果最佳,创新地结合了大语言模型的强大语义解析能力和图神经网络的推理优势,提供更精准、更智能的知识图谱问答解决方案。
|KnowTrace: Explicit Knowledge Tracing for Structured Retrieval-Augmented Generation
论文链接:https://openreview.net/pdf?id=F6rZaxOC6m
代码地址:https://github.com/xxrep/SRAG
LLM 在知识问答任务中表现出色,但在面对超出其知识边界的问题时会出现事实错误。检索增强生成(RAG)方法虽能通过检索信息增强 LLM 能力,但现有迭代 RAG 方法在处理多跳问题时,简单将检索文本累积到提示中,使 LLM 难以把握知识结构进行高质量推理。一些方法尝试重构检索文本,但存在计算开销大、可能丢失知识等问题。论文提出KnowTrace,核心内容包括:
总体框架:KnowTrace 将 LLM 视为主动知识组织者,通过知识探索和知识完成两个阶段迭代操作,追踪知识三元组以形成特定知识图谱,直至得出答案。同时,利用知识回溯机制过滤无关信息,提升模型性能。
知识探索阶段:利用 LLM 规划能力,根据当前知识图谱和输入问题判断是否已有足够信息回答问题。若否,则确定需要扩展的实体和关系,生成查询并检索相关文本。
知识完成阶段:基于检索到的文本和给定的实体-关系对,利用 LLM 语言理解能力提取关键知识,填充知识图谱。
知识提示策略:研究了三种将知识图谱信息融入 LLM 提示的策略,包括直接输入三元组、组合成路径和转换为文本,实验表明直接输入三元组(KG-To-Triplets)效果最佳。
在三个标准 MHQA 数据集上评估,采用精确匹配(EM)和 F1 分数作为指标,对比了多种先进的 RAG 方法,使用 LLaMA3-8B-Instruct 和 GPT- 3.5-Turbo-Instruct 作为基础 LLM,采用 BM25、DPR 和 Contriever 作为检索方法,并对不同配置进行了研究KNOWTRACE 通过显式知识追踪将知识结构与多步推理相结合,在多步推理和自学习微调方面表现出色,实验证明其优于现有 RAG 方法,为提升 LLM 推理能力提供了新途径。
|FiDeLiS: Faithful Reasoning in Large Language Model for Knowledge Graph Question Answering
论文链接:https://arxiv.org/abs/2405.13873
代码地址:https://anonymous.4open.science/r/FiDELIS-E7FC
大语言模型在复杂推理任务中易产生错误或 “幻觉” 响应,限制了其在高可靠性领域的应用。知识图谱存储高质量结构化知识,为提高语言模型推理可靠性提供了可能,但将知识图谱与推理模型有效整合面临数据稀疏、查询解释复杂和推理能力要求高等挑战。具体包括如何从知识图谱中准确检索知识以及如何让推理模型理解和利用检索到的知识两个主要问题。论文提出FiDeLiS 方法,核心内容如下:
Path-RAG 模块:通过预训练语言模型生成实体和关系的嵌入并存储在最近邻数据结构中。利用语言模型生成查询关键词,检索相关实体和关系,再基于相关性和邻居信息构建和评分推理步候选,确保高召回率检索和推理路径与知识图谱的有效连接。
DVBS 模块:促使语言模型生成规划步骤,利用束搜索迭代扩展推理路径,通过语言模型的演绎推理能力验证推理步骤和路径,确定何时停止推理,避免误导性推理链。
在三个数据集上的实验表明,FiDeLiS 优于包括基于 GPT-4-turbo 的强基线方法,在处理长尾实体和复杂查询方面表现出色。Path-RAG 和 DVBS 组件对 FiDeLiS 性能至关重要,去除任何一个都会导致性能显著下降,Openai-Embedding Model 作为 Path-RAG 的嵌入模型可提升性能,搜索宽度增加通常提高性能,深度超过 3 时性能可能下降。同时Path - RAG 比普通检索器有更高覆盖率和更好对齐,FiDeLiS 推理步骤有效性更高,推理深度更接近真实情况,在实际案例中也表现更好。Path - Rag 组件有助于提高准确性和效率,使用更快的语言模型可进一步加速。