链载Ai

标题: 颠覆直觉:Top N 越大,RAG效果可能越差 [打印本页]

作者: 链载Ai    时间: 7 小时前
标题: 颠覆直觉:Top N 越大,RAG效果可能越差

颠覆直觉:Top N 越大,RAG效果可能越差


一、RAG 系统的背景与挑战

在自然语言处理(NLP)领域,大型语言模型(LLMs)如 GPT、BERT 等已经展现出了强大的文本生成、问答和摘要能力。然而,这些模型也存在一些显著的局限性。

为了应对这些挑战,检索增强生成(Retrieval-Augmented Generation, RAG)系统应运而生。RAG 系统通过引入检索组件,使 LLMs 能够动态地利用外部知识源,从而生成更准确、更及时的回答。

RAG 系统已经在多个行业中得到广泛应用,尤其是在企业内部文档查询等场景中。然而,尽管 RAG 系统的应用日益广泛,关于其最佳配置的研究却相对缺乏,特别是在上下文大小、基础 LLM 选择以及检索方法等方面。

二、试验结果

RAG 系统通常由两个主要组件构成:检索器(Retriever)和生成器(Reader):

作者重点探讨了这三个方面(检索器、上下文、生成器)对系统整体性能的影响。

首先研究了上下文大小对生成器问答能力的影响。结果表明:随着上下文片段数量的增加,系统的性能逐步提升,但当片段数量达到 10 到 15 个时,性能开始趋于稳定,甚至在某些情况下会出现下降。这一现象表明,过多的上下文片段可能会导致信息过载,反而影响生成器的表现。

2.1 黄金片段测试

上图展示了四个较大尺寸的大语言模型(LLMs)在使用黄金片段后的表现,四个模型分别是GPT3.5、GPT-4o、Llama 3 70B、Mixtral (8x7B)。

所有模型都呈现出相似的模式:

2.2 封闭式测试

使用了包含八千篇PubMed文章的小型知识库,这些文章在BioASQ中被用作黄金证据。

实验结果如上表所示,模型性能与之前有所下降。即使是表现最佳的Mixtral模型,其性能也平均下降。

尽管如此,随着选择的top k片段数量的增加,性能仍然逐步提升,表明更多的上下文信息能够带来更好的表现。

这一点在top-10设置中尤为明显,因为选择的证据片段越多,选中用于生成理想答案的黄金证据片段的概率就越高。

2.3 开放式测试

使用约1000万篇PubMed文章作为检索的知识库。其目的是观察:

上表结果显示:

3. 结论

3.1 检索技术

从上表可以看出,BM25在整体性能上表现更优。由于BM25基于关键词匹配,这种检索技术优化了搜索结果的精确度(precision)而非召回率(recall),从而确保检索到的文档更有可能讨论问题中提到的相同概念(关键词)。

优化精确度并将查询关键词与知识库中的内容匹配,可以提升性能。特别是在生物医学领域等关键应用中,优化精确度和生成稳健的答案可能比语义搜索提供的召回率更为重要

注:

3.2 内部知识与外部知识的冲突

上表中开放式检索的一个有趣现象:GPT和Mixtral在零样本答案(无上下文片段)中的得分高于提供多达10个上下文片段的答案。

这种现象的一个可能解释是:尽管在语料库中发现的片段可能与问题在语义上相似,但它们并不总是提供所有重要信息。

当仅使用普通提示时,LLM基于其“内部”知识生成答案:反映了LLM从大规模预训练语料库中积累的知识。

因此,LLM的内部知识答案可能比RAG设置中的答案更具信息量,因为在RAG设置中,LLM被指示仅使用提供的短片段来回答问题。随着更多片段的加入,RAG答案的信息量开始超越LLM的内部知识。

以上表中的第一个示例为例,Mixtral基于内部知识生成的答案提到了纯化和IgG,与黄金答案一致,而基于top-3片段生成的答案则是不完整的。

一般来说,瓶颈通常与错误的检索有关——有时检索到的片段根本没有回答问题,尤其是对于BioASQ中复杂的生物医学术语。

另一方面,普通设置下的LLM总是基于其最佳知识提供答案,因此在检索不佳的情况下表现更好。在上表的第二个示例中显而易见。

展示了LLM内部知识与传递给它们的上下文知识之间冲突的已知挑战,也是一个有趣的未来研究方向。

3.3 上下文饱和

上表中的另一个发现是,性能提升存在一定的上限。

随着不断增加上下文片段的数量,增加到20个时,性能趋于停滞,而在检索到30个上下文片段时,性能略有下降。

当达到饱和点后,向提示中添加更多上下文只会导致回答中的噪音和混淆。

证实了文献中的先前发现,即在长提示中,上下文可能会“迷失在中间”,并在LLM回答问题时被忽略。







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5