受 Barnett 等人的论文《设计检索增强生成系统时的七个故障点》的启发,让我们在本文中探讨论文中提到的七个痛点以及开发 RAG 管道时的五个额外常见痛点。更重要的是,我们将深入研究这些RAG痛点的解决方案,以便在日常 RAG 开发中更好地解决这些痛点。
我使用 "痛点" 而不是 "故障点"一词,主要是因为这些点都有相应的解决方案。让我们在它们成为 RAG 流水线中的"故障"之前尝试修复它们。
首先,让我们研究一下论文中提到的七个痛点;请参阅下图。然后,我们将添加另外五个痛点及其建议的解决方案。
图片改编自《设计检索增强生成系统时的七个故障点》[1]
当实际答案不在知识库中时,RAG 系统提供了一个看似合理但不正确的答案,而不是说它不知道。用户收到误导性信息,导致沮丧。
我们提出了两种解决方案:
数据质量差,结果自然不好。如果源数据质量很差,比如包含矛盾的信息,无论你构建的 RAG 流水线有多好,它都无法从你喂给它的垃圾中产生有价值的结果。这个解决方案不仅适用于这个痛点,也适用于本文列出的所有痛点。高质量的数据是任何运行良好的 RAG 流水线的先决条件。
在由于知识库中缺乏信息而导致系统可能提供看似合理但不正确的答案的情况下,更好的提示词会有很大帮助。通过用 "如果你不确定答案,告诉我你不知道" 等提示词来指导系统,你可以鼓励模型承认其局限性,并更透明地传达不确定性。虽然不能保证 100% 的准确性,但在清理数据后,精心设计提示词是你所能做的最大努力之一。
重要文档可能未出现在系统检索组件返回的顶部结果中。正确的答案被忽略了,导致系统无法提供准确的响应。该论文提到,"问题的答案在文档中,但排名不够高,无法返回给用户"。
我想到了两个解决方案:
chunk_size和similarity_top_k都是用于管理 RAG 模型中数据检索过程的效率和有效性的参数。调整这些参数可能会影响计算效率和检索信息质量之间的权衡。我们在上一篇文章《使用 LlamaIndex 自动进行超参数调优》[2] 中探讨了 chunk_size 和 similarity_top_k 的超参数调优细节。请参阅下面的示例代码片段。
param_tuner=ParamTuner(
param_fn=objective_function_semantic_similarity,
param_dict=param_dict,
fixed_param_dict=fixed_param_dict,
show_progress=True,
)
results=param_tuner.tune()
该函数 objective_function_semantic_similarity 定义如下, param_dict 包含参数 chunk_size 和 top_k ,以及它们对应的建议值:
#containstheparametersthatneedtobetuned
param_dict={"chunk_size":[256,512,1024],"top_k":[1,2,5]}
#containsparametersremainingfixedacrossallrunsofthetuningprocess
fixed_param_dict={
"docs":documents,
"eval_qs":eval_qs,
"ref_response_strs":ref_response_strs,
}
defobjective_function_semantic_similarity(params_dict):
chunk_size=params_dict["chunk_size"]
docs=params_dict["docs"]
top_k=params_dict["top_k"]
eval_qs=params_dict["eval_qs"]
ref_response_strs=params_dict["ref_response_strs"]
#buildindex
index=_build_index(chunk_size,docs)
#queryengine
query_engine=index.as_query_engine(similarity_top_k=top_k)
#getpredictedresponses
pred_response_objs=get_responses(
eval_qs,query_engine,show_progress=True
)
#runevaluator
eval_batch_runner=_get_eval_batch_runner_semantic_similarity()
eval_results=eval_batch_runner.evaluate_responses(
eval_qs,responses=pred_response_objs,reference=ref_response_strs
)
#getsemanticsimilaritymetric
mean_score=np.array(
[r.scoreforrineval_results["semantic_similarity"]]
).mean()
returnRunResult(score=mean_score,params=params_dict)
更多详细信息,请参阅 LlamaIndex关于 RAG 超参数优化的完整笔记本。[3]
在将检索结果发送到 LLM 之前对其重新排序显著提高了 RAG 性能。这个 LlamaIndex 笔记本[4]演示了以下两者之间的区别:
importos
fromllama_index.postprocessor.cohere_rerankimportCohereRerank
api_key=os.environ["COHERE_API_KEY"]
cohere_rerank=CohereRerank(api_key=api_key,top_n=2)#returntop2nodesfromreranker
query_engine=index.as_query_engine(
similarity_top_k=10,#wecansetahightop_kheretoensuremaximumrelevantretrieval
node_postprocessors=[cohere_rerank],#passthererankertonode_postprocessors
)
response=query_engine.query(
"WhatdidSamAltmandointhisessay?",
)
此外,您可以使用各种嵌入和重排器来评估和增强检索器的性能,如Ravi Theja[5] 的《通过选择最佳嵌入和重排模型提升 RAG 性能》[6]一文中所述。
该论文定义了这一点:"包含答案的文档从数据库中检索到了,但没有进入生成答案的上下文。当从数据库返回许多文档,并进行合并过程来检索答案时,就会发生这种情况"。
除了如上所述添加重排器并微调重排器外,我们还可以探索以下可能的解决方案:
LlamaIndex 提供了一系列检索策略,从基本到高级,帮助我们在 RAG 管道中实现准确的检索。查看检索器模块指南,了解所有检索策略的综合列表,分为不同类别:
如果你使用开源嵌入模型,微调嵌入模型是实现更准确检索的好方法。LlamaIndex 有一个关于微调开源嵌入模型的分步指南,证明微调嵌入模型可以在整个评估指标套件中持续改进指标。
请参阅下面有关创建微调引擎、运行微调并获取微调模型的示例代码片段:
finetune_engine=SentenceTransformersFinetuneEngine(
train_dataset,
model_id="BAAI/bge-small-en",
model_output_path="test_model",
val_dataset=val_dataset,
)
finetune_engine.finetune()
embed_model=finetune_engine.get_finetuned_model()
该系统难以从提供的上下文中提取正确的答案,尤其是在信息过载时。关键细节被遗漏,影响了回复的质量。该论文提到:"当上下文中有太多噪音或相互矛盾的信息时,就会发生这种情况"。
让我们探讨三种解决方案:
这个痛点是又一个典型的坏数据受害者。我们再怎么强调干净数据的重要性也不为过!在指责你的 RAG 流水线之前,一定要先花时间清理你的数据。
LongLLMLingua研究项目/论文[7]中介绍了长上下文环境中的即时压缩。通过在 LlamaIndex 中的集成,我们现在可以将 LongLLMLingua 实现为节点后处理器,它将在检索步骤后压缩上下文,然后将其输入 LLM。
fromllama_index.query_engineimportRetrieverQueryEngine
fromllama_index.response_synthesizersimportCompactAndRefine
fromllama_index.postprocessorimportLongLLMLinguaPostprocessor
fromllama_index.schemaimportQueryBundle
node_postprocessor=LongLLMLinguaPostprocessor(
instruction_str="Giventhecontext,pleaseanswerthefinalquestion",
target_token=300,
rank_method="longllmlingua",
additional_compress_kwargs={
"condition_compare":True,
"condition_in_question":"after",
"context_budget":"+100",
"reorder_context":"sort",#enabledocumentreorder
},
)
retrieved_nodes=retriever.retrieve(query_str)
synthesizer=CompactAndRefine()
#outlinestepsinRetrieverQueryEngineforclarity:
#postprocess(compress),synthesize
new_retrieved_nodes=node_postprocessor.postprocess_nodes(
retrieved_nodes,query_bundle=QueryBundle(query_str=query_str)
)
print("\n\n".join([n.get_content()forninnew_retrieved_nodes]))
response=synthesizer.synthesize(query_str,new_retrieved_nodes)
请参阅下面的示例代码片段,我们在其中设置LongLLMLinguaPostprocessor了 ,它使用包longllmlingua来运行提示压缩。
有关更多详细信息,请查看 LongLLMLingua 上的完整笔记本[8]。
一项研究观察到,当关键数据位于输入上下文的开始或结尾时,通常会出现最佳性能。LongContextReorder旨在通过对检索到的节点重新排序来解决这个 "中间丢失" 的问题,这在需要大型 top-k 的情况下会很有帮助。
请参阅下面的示例代码片段,了解如何在查询引擎构造期间定义为LongContextReorder。
有关更多详细信息,请参阅 LlamaIndex 的完整 LongContextReorder 笔记本。[9]
fromllama_index.postprocessorimportLongContextReorder
reorder=LongContextReorder()
reorder_engine=index.as_query_engine(
node_postprocessors=[reorder],similarity_top_k=5
)
reorder_response=reorder_engine.query("DidtheauthormeetSamAltman?")| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |