链载Ai

标题: RAG重排哪家强?Cross-Encoder VS LLM Reranker [打印本页]

作者: 链载Ai    时间: 1 小时前
标题: RAG重排哪家强?Cross-Encoder VS LLM Reranker

重排模型显著提升了信息检索(IR)系统的质量。传统重排方法依赖于手工定义的特征和特定的学习排序损失函数。随着BERT等模型的出现,交叉编码器(Cross-Encoder )成为了标准的重排工具。近年,大型语言模型(LLMs)也被证明是有效的零样本(zero-shot)重排器。

因此,做出了一项深入研究:在重新排列有效的SPLADE检索器的背景下,比较了LLMs重排器(LLMs As ReRankers)与交叉编码器(Cross-Encoders)。在TREC深度学习数据集和诸如BEIR和LoTTE等跨领域数据集上进行了大规模评估,得出如下结论:

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;display: table;border-bottom: 1px solid rgb(248, 57, 41);">五大维度详细实验评估

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;border-left: 4px solid rgb(248, 57, 41);">交叉编码器的领域内评估

最好的第一阶段模型通常会导致最好的最终性能,但是重排器缩小了三个检索器之间最初的差距。

各种SPLADE模型与各种重排器的领域内评估(nDCG@10)

交叉编码器的领域外评估
跨领域评估(nDCG@10)

LLM作为重排器
在SPLADE-v3(强基线)基础上,作为零样本重排器的基于GPT的模型评估——nDCG@10。

TREC-COVID数据集上的详细比较
进一步比较了DeBERTa-v3重排器与OpenAI LLMs以及开放模型的性能。
封闭模型与开放模型的比较:
在TREC-COVID上的交叉编码器、开放性和封闭性LLMs的比较(nDCG@10)。"|d|" 表示截断长度,"title" 表示该字段是否在评估中使用或不使用(x)。

重排管道(Reranking Pipeline)
使用LLMs的级联管道(在TREC DL23上的nDCG@10)

LLMs AsRerankers的Prompt模版

https://arxiv.org/pdf/2403.10407AThoroughComparisonofCross-EncodersandLLMsforRerankingSPLADE






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5