链载Ai

标题: GraphRAG新增文件会重新索引所有文件吗?探究缓存何时生效 [打印本页]

作者: 链载Ai    时间: 8 小时前
标题: GraphRAG新增文件会重新索引所有文件吗?探究缓存何时生效

GraphRAG索引消耗Token巨大,所以你可能会问?新增文件后,我之前的文件会不会重新索引一次啊?什么情况下会利用缓存呢?本文带你一探究竟。

GraphRAG默认使用文件缓存,配置如下。当然你也可以考虑使用Azure云端的缓存。

cache:
type:file#orblob
base_dir:"cache"
#connection_string:<azure_blob_storage_connection_string>
#container_name:<azure_blob_storage_container_name>

缓存放在cache目录下,并根据流程分为实体提取、总结描述、社区报告和文本嵌入四个部分,所以缓存基本涵盖了所有涉及LLM调用或者Embedding调用的部分。

缓存的文件名类似 chat-0a0edbed8a583fd6ef2647112f565bd9 create_community_report-chat-v2-0a8d6dcd76f6d92edb9388681da40d1d,tag和hash值组合而成。缓存的内容是什么呢?其实就LLM的请求输入和响应输出,或者是embedding API的调用回复。

{
"result":"(\"entity\"<|>\"Retrieval-AugmentedGeneration\"<|>\"technique\"<|>...<|COMPLETE|>",
"input":"-Goal-\nGivenatextdocument...",
"parameters":{
"model":"deepseek-chat",
"temperature":0,
"frequency_penalty":0,
"presence_penalty":0,
"top_p":0.99,
"max_tokens":4096,
"n":1
}
}

那么何时缓存会生效?修改哪些部分会影响缓存呢?让我们看GraphRAG中如下代码,它是为缓存文件生成文件名,也就是上文看到文件名。

defcreate_hash_key(operation:str,prompt:str,parameters:dict)->str:
"""Computecachekeyfrompromptandassociatedmodelandsettings.

Args:
prompt(str):Thepromptrunthroughthelanguagemodel.
llm_string(str):Thelanguagemodelversionandsettings.

Returns
-------
str:Thecachekey.
"""
llm_string=_llm_string(parameters)
returnf"{operation}-{_hash(prompt+llm_string)}"

从这份代码上,我们能够了解到,有两个影响hash值的生成

这是实际运行过程中打印的参数

tag:chat
llm_string:{'model':'llama3-70b-8192','temperature':0.0,'frequency_penalty':0.0,'presence_penalty':0.0,'top_p':0.99,'max_tokens':2000,'n':1}
[('frequency_penalty',0.0),('max_tokens',2000),('model','llama3-70b-8192'),('n',1),('presence_penalty',0.0),('temperature',0.0),('top_p',0.99)]

所以当你

因此,如果你的单个文档较大,并且可能会经常修改,可以考虑将其拆分,以充分利用缓存,节省你的Money。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5