链载Ai

标题: GraphRAG变种这么多,该采用哪种?九大GraphRAG评估参考 [打印本页]

作者: 链载Ai    时间: 昨天 21:12
标题: GraphRAG变种这么多,该采用哪种?九大GraphRAG评估参考

系统的评估总是有趣的,在前文,我们通过一个类似的benchmark得出结论:GraphRAG在需要多跳推理和上下文综合的任务中表现优异,但在简单事实检索任务中不如传统RAG。见《什么时候用GraphRAG?RAG VS GraphRAG综合分析》

本文,再来看一个评估工作,同样是一个GraphRAG-bench,也再次通过评估得出GraphRAG适合多跳推理场景,并且系统的评估了九大GraphRAG(RAPTOR、LightRAG、GraphRAG、G-Retriever、HippoRAG、GFM-RAG、DALK、KGP和ToG)在这个benchmark上的性能,供参考。

评估设计

数据来源:从超过100本出版物中,系统地挑选出最具代表性的20本计算机科学领域的教科书。

数据处理:其实就是文档解析,前面《文档智能》专栏也介绍了很多,包含:预处理、内容解析、后处理和层次结构构建。预处理阶段包括PDF分类和元数据提取;内容解析阶段使用LayoutLMv3进行布局分析、公式识别和OCR;后处理阶段使用MinerU重新排序和合并页面区域;层次结构构建阶段将提取的内容组织成层次化的教科书树结构

评估问题设计:定义了五种类型的问题,每种类型都针对GraphRAG的不同推理能力。如下表,GraphRAG-bench评估问题类型的描述

问题类型
描述
填空题(FB)
要求用语义精确的术语完成上下文相关的陈述。这些题目评估模型利用局部语义依赖和图结构知识中的实体定位,生成上下文连贯内容的能力。
多选题(MC)
提供一个问题及4个选项,包括语言上合理的干扰项。这些题目评估模型通过区分性推理识别正确答案的能力,整合实体信息和边关系以排除语义相似但事实错误的选项。
多选答题(MS)
要求从4个选项中选择2-4个正确答案,通常需要对相互关联的概念进行推理。包含重叠干扰项的设置测试模型处理复杂查询语义的能力,从多跳图路径中聚合证据,并解决相关但非必要属性之间的冲突。
判断题(TF)
涉及验证陈述的正确性。这些题目衡量模型的事实准确性评估能力,要求对知识进行逻辑推理。
开放式问题(OE)
开放式问题允许广泛的回答,要求方法生成详细且全面的答案。这些题目评估模型的整体知识综合能力,要求整合多学科知识以生成结构化、逻辑连贯的长篇回答。

评估指标:涵盖图构建、知识检索、答案生成和推理过程的评价。图构建评估包括效率、成本和组织性;知识检索评估包括索引时间和平均检索时间;生成评估引入了新的Accuracy指标,考虑语义对齐和正确性;推理评估通过LLM对生成的理由进行评分,评估其逻辑一致性。

实验与结论

图构建过程的比较
知识检索过程比较
生成过程的比较
推理能力比较






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5