链载Ai

标题: RAG | (支付宝 清华KDD24论文)FoRAG: 基于大语言模型的网络增强型长篇问答系统 [打印本页]

作者: 链载Ai    时间: 11 小时前
标题: RAG | (支付宝 清华KDD24论文)FoRAG: 基于大语言模型的网络增强型长篇问答系统

大家好!今天我分享的文章是来自蚂蚁和清华的最新工作,文章所属领域是自然语言处理和信息检索,作者针对网络增强型长篇问答系统中存在的事实性和逻辑性问题,提出了一种名为FoRAG的新方法,通过大纲增强生成和多粒度事实性优化来提高回答质量。研究问题和思路具有一定的借鉴意义。

原文:FoRAG: Factuality-optimized Retrieval Augmented Generation for Web-enhanced Long-form Question Answering
地址:https://arxiv.org/html/2406.13779v1
代码:https://huggingface.co/forag
出版:KDD '24
机构: 蚂蚁集团、清华大学

1 研究问题

本文研究的核心问题是: 如何提高网络增强型长篇问答系统的回答质量,特别是在事实性和逻辑性方面。

假设用户询问"为什么古代城市会被沙土掩埋?"。传统的网络增强型问答系统可能会生成一个包含事实错误或逻辑不清晰的长篇回答。例如,系统可能会错误地声称所有古代城市都被沙土掩埋,或者给出一个缺乏清晰结构的回答,使用户难以理解主要原因和次要原因之间的关系。

本文研究问题的特点和现有方法面临的挑战主要体现在以下几个方面:

针对这些挑战,本文提出了一种基于大纲增强和多粒度事实性优化的"FoRAG"方法:

FoRAG方法可以类比为一个经验丰富的作家和一个严谨的编辑的合作过程。首先,"作家"(大纲增强生成器)会先列出一个写作大纲,确保文章结构清晰。然后根据这个大纲来撰写详细内容,就像优秀作家会先梳理思路再动笔一样。接着,"编辑"(多粒度事实性优化模块)会仔细审核文章的每一个细节,不仅关注整体内容,还会逐句甚至逐词地检查,就像一个一丝不苟的编辑在校对文章。这种方法既保证了文章的整体结构和连贯性,又最大限度地减少了事实性错误,从而产出高质量的长篇回答。

2 研究方法

2.1 大纲增强生成器

大纲增强生成器是FoRAG方法的核心组件之一,旨在提高生成答案的逻辑结构和连贯性。这个生成器采用两阶段生成策略:大纲生成阶段和扩展阶段。

在大纲生成阶段,系统首先考虑最适合当前问题的组织模式,例如"因果关系"或"对比分析"。举个例子,如果问题是"为什么恐龙灭绝了?",系统可能会选择"因果关系"作为组织模式。然后,系统会生成一个简洁的大纲,包含主要论点。在我们的恐龙灭绝例子中,大纲可能是:

  1. 小行星撞击理论
  2. 火山爆发理论
  3. 气候变化理论

在扩展阶段,系统基于生成的大纲来构建完整的答案。这就好比一个作家先列出文章的框架,然后再逐步填充内容。对于恐龙灭绝的例子,系统会详细阐述每个理论,解释它们如何可能导致恐龙灭绝。

这种方法的优势在于,它能确保生成的答案具有清晰的结构和逻辑流程,使读者更容易理解复杂的信息。直觉上,这就像是先搭建房子的骨架,然后再填充墙壁和装饰,而不是直接开始随意堆砌砖块。

2.2 大纲增强长篇问答数据集

为了训练和评估大纲增强生成器,我们构建了一个专门的大纲增强长篇问答数据集。这个数据集的特点是每个样本不仅包含问题和答案,还包含答案的大纲。具体来说,我们使用了两个现有的网络增强型长篇问答数据集:英文的WebGLM-QA和中文的WebCPM。我们保留了这些数据集中的问题和相关段落,但使用我们的大纲增强生成技术重新生成了答案。举个例子,对于"为什么恐龙灭绝了?"这个问题,数据集中的一个样本可能包含:

这个数据集的构建过程可以类比为给一本没有目录的书添加目录,然后根据目录重写每一章。这不仅提高了内容的组织性,还为学习如何生成结构化答案提供了宝贵的训练资料。

2.3 双重细粒度RLHF框架

双重细粒度RLHF(Reinforcement Learning from Human Feedback)框架是FoRAG方法中用于优化生成内容事实性的关键组件。这个框架的设计灵感来自于人类对信息的处理方式:我们不仅关注整体内容,还会细致审查每个细节。这个框架包含两个主要创新点:细粒度自动评估和细粒度奖励建模。

2.3.1 细粒度自动评估

在细粒度自动评估中,我们考虑了三个不同的粒度级别:

  1. 整体评估:这是最传统的方法,给整个答案一个单一的事实性分数。
  2. 句子级评估:将答案分解为句子,并单独评估每个句子的事实性。
  3. 子主张级评估:将每个句子进一步分解为多个子主张,并评估每个子主张的事实性。

这就好比阅读一篇文章,我们可以给出整体印象,也可以逐句分析,甚至可以考察每个具体的观点。举个例子,对于"小行星撞击导致恐龙灭绝"这个句子,我们可以将其分解为"小行星撞击地球"和"这次撞击导致恐龙灭绝"两个子主张,并分别评估它们的事实性。

2.3.2 细粒度奖励建模

在奖励建模方面,我们提出了两种粒度级别:

  1. 序列级:为每个序列(可能是整个答案、一个句子或一个子主张)学习一个单一的奖励。
  2. 令牌级:为序列中的每个令牌(token)学习一个奖励。

这种方法可以类比为教师批改作文。序列级奖励就像给整篇文章或每个段落一个总体评分,而令牌级奖励则像是在文章中标注出每个好的或需要改进的词语。

通过结合不同粒度的评估和奖励建模,我们可以更精确地识别和改进生成内容中的事实性问题。例如,如果系统在描述小行星撞击的具体时间时出现错误,细粒度评估可以准确定位这个错误,而细粒度奖励模型则可以为修正这个具体时间信息提供更精确的指导。这个框架的优势在于它能提供更丰富、更细致的反馈信号,使模型能够学习到更细微的事实性调整。这就好比给学生提供详细的批注和建议,而不仅仅是一个总体分数,从而帮助他们更好地理解和改进自己的表现。

3 实验

3.1 实验场景介绍

该论文提出了一种名为FoRAG的新方法,用于改进网络增强型长篇问答(web-enhanced LFQA)任务。实验主要验证FoRAG在生成连贯、有帮助和事实准确的长篇回答方面的性能,并与现有的方法进行比较。

3.2 实验设置

  1. WebGPT的数据集:272个样本,来自WebGPT演示网站
  2. WebCPM的数据集:中文数据集,包含5,500个样本

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;text-wrap: wrap;background-color: rgb(255, 255, 255);text-align: center;">本文内容如有不对烦请留言指正

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;text-wrap: wrap;background-color: rgb(255, 255, 255);text-align: center;">

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;text-wrap: wrap;background-color: rgb(255, 255, 255);text-align: center;">END

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;text-wrap: wrap;background-color: rgb(255, 255, 255);text-align: center;">







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5