链载Ai

标题: RankRAG指令微调框架:让LLM在检索增强任务中更高效 [打印本页]

作者: 链载Ai    时间: 2025-12-2 11:31
标题: RankRAG指令微调框架:让LLM在检索增强任务中更高效


论文链接:https://arxiv.org/pdf/2407.02485v1

摘要

本篇文章提出了一个新的指令微调框架RankRAG,该框架通过指令微调单个大型语言模型,使其同时具备上下文排序和答案生成的能力,从而提升检索增强生成任务的效率。文章在多个数据集进行了广泛测试,结果表明在多种任务上RankRAG相较于其他基线模型,展现出了更为卓越的性能表现。

RankRAG框架

RankRAG框架主要分为两个阶段:训练(Training)阶段推理(Inference)阶段。其中训练阶段又可以分为:监督微调统一指令调优排序和生成两个阶段,下面将详细介绍每个阶段。

1.训练阶段

1.1 监督微调(SFT)

作者使用高质量的指令遵循数据集对语言模型进行微调,提升了大语言模型(LLMs)的指令遵循能力,改善其在各种下游任务中的零样本表现。训练数据包括众包对话数据集、长篇问答数据集以及由LLM生成的指令数据集。

1.2 统一指令调优排序和生成

该阶段的重点在于通过统一指令调优,增强大语言模型(LLM)在排序和生成任务上的能力,特别是对于检索增强生成(RAG)任务的表现。该阶段包括五个关键部分的数据集和任务设计:
  1. 第一阶段的SFT数据:
    这一部分是为了维护LLM的指令遵循能力。
  2. 丰富上下文的问答数据:
    利用多个具有丰富上下文的问答任务来增强大语言模型(LLM)使用上下文进行生成的能力。训练数据集包括:







欢迎光临 链载Ai (http://www.lianzai.com/) Powered by Discuz! X3.5