链载Ai

标题: 【RAG提升技巧】查询改写HyDE [打印本页]

作者: 链载Ai    时间: 2 小时前
标题: 【RAG提升技巧】查询改写HyDE

unsetunset简介unsetunset

提高 RAG 推理能力的一个好方法是添加查询理解层 ——在实际查询向量存储之前添加查询转换。以下是四种不同的查询转换:

    utside;" class="list-paddingleft-2">
  • 路由:保留初始查询,同时查明其所属的适当工具子集。然后,将这些工具指定为合适的选项。
  • 查询重写:维护选定的工具,但以多种方式重新编写查询,以将其应用于同一组工具。
  • 子问题:将查询分解为几个较小的问题,每个问题针对由其元数据确定的不同工具。
  • ReAct Agent 工具选择:根据原始查询,确定要使用的工具并制定要在该工具上运行的特定查询。

HyDE来自于Precise Zero-Shot Dense Retrieval without Relevance Labels,这篇文章主要做zero-shot场景下的稠密检索,通过借助LLM的力量不需要Relevance Labels,开箱即用。作者提出Hypothetical Document Embeddings (HyDE)方法,即“假设”文档嵌入。具体的做法是通过GPT生成虚构的文档,并使用无监督检索器对其进行编码,并在其嵌入空间中进行搜索,从而不需要任何人工标注数据模型结构如下图所示,HyDE将密集检索分解为两个任务,即 instruction-following的LM生成任务和对比编码器执行的文档相似性任务。

paper:https://arxiv.org/pdf/2212.10496
code:https://github.com/texttron/hyde

unsetunset原理以及实现unsetunset

典型的密集信息检索过程包括以下步骤:

    utside;" class="list-paddingleft-2">
  • 将查询和文档转换为嵌入(向量)
  • 计算查询和文档之间的余弦相似度
  • 返回余弦相似度最高的文档通过 HyDE,query embedding我做了一些改进。首先让 LLM 生成回答查询的文档,然后将生成的虚拟答案转换为嵌入,而不是直接将查询转换为嵌入。

我们在LangChain上实际使用一下。

from langchain.embeddings import OpenAIEmbeddings
from langchain.chains import LLMChain,HypotheticalDocumentEmbedder
from langchain.prompts import PromptTemplate
from langchain.chat_models import ChatOpenAI
from dotenv import load_dotenv
#set the environment variables
load_dotenv()

#prepare the prompt template for document generation
Prompt_template="""回答问题。
问题:{question}
回答:”””
llm=ChatOpenAI()
#multi_llm=ChatOpenAI(n=4)
prompt=PromptTemplate(input_variables=["question"],template=prompt_template)
llm_chain=LLMChain(llm=llm,prompt=prompt,verbose=True)

#initialize the hypothetical document embedder
base_embeddings=OpenAIEmbeddings()
embeddings=HypotheticalDocumentEmbedder(llm_chain=llm_chain,base_embeddings=base_embeddings)

result=embeddings.embed_query("塞尔达传说的主角是谁?")
len(result)








欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5