链载Ai

标题: 【RAG】FoRAG:面向网络增强型长形式问答的事实性优化RAG [打印本页]

作者: 链载Ai    时间: 10 小时前
标题: 【RAG】FoRAG:面向网络增强型长形式问答的事实性优化RAG

一、解决问题

在基于网络的长形式问答(Web-enhanced Long-form Question Answering, LFQA)任务中,现有RAG在生成答案时存在的问题:

二、提纲增强RAG

提出提纲增强RAG,以改善长形式问题回答 LFQA 中生成答案的结构和质量。

2.1 Outline-Enhanced Generator

现有的开源方法在生成答案时,通常是直接将检索到的内容与原始查询拼接,然后使用特定的提示模板(prompt template)输入到生成模型中。这种方法生成的答案往往较短,缺乏清晰的逻辑结构。为了提高答案的组织性,提出了 "Outline-Enhanced Generator",它包含以下两个阶段:

注:提纲增强阶段的生成器有SFT训练得到。

2.2 Outline-Enhanced Long-Form QA Dataset

为了支持 "Outline-Enhanced Generator" 的训练和评估,构建了两个大规模的提纲增强型LFQA数据集。这些数据集利用现有的WebCPM和WebGLM数据集的查询和相关段落,并通过GPT4模型应用提纲增强生成技术来收集提纲增强型答案。统计信息显示,使用提纲增强技术生成的答案比现有工作中的答案更长,其具有更强的逻辑结构。

2.3 提纲增强数据构建提示词

小结:通过引入提纲阶段来增强生成答案的逻辑结构,并通过扩展阶段来完善和详细化答案内容,从而提高了长形式问题回答的质量。

三、事实性优化RAG

传统的RLHF,优化事实性所面临困难如下:

因此,提出了一种新颖的事实性优化方法(Doubly Fine-grained RLHF),旨在解决网络增强型 LFQA 中的事实性问题。

3.1 Doubly Fine-grained RLHF

提出了一种新的事实性优化框架,通过在评估和奖励建模中采用细粒度的设计,有效地提高了长形式问题回答中生成答案的事实性,同时减少了对人工标注的依赖。

细粒度评估(Fine-grained Evaluation):

细粒度奖励建模(Fine-grained Reward Modeling):

实现方法

四、实验结果







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5