链载Ai

标题: 动手实现GraphRAG,检索效果大幅提升 [打印本页]

作者: 链载Ai    时间: 昨天 10:51
标题: 动手实现GraphRAG,检索效果大幅提升

检索增强生成(RAG)技术及其进阶版本GraphRAG,通过设置环境和使用Ollama实现应用。1 理解检索增强生成(RAG)

检索增强生成(RAG)技术通过融合检索得到的文档和用户输入的查询,为语言模型注入了额外的上下文信息。这种结合不仅丰富了模型的知识库,还提升了其回答的准确性和相关性。

例如,当用户提出涉及特定个人信息或商业数据的问题时,RAG能够从预设的数据源中提取关键信息,辅助模型给出更加精准的答复。

简而言之,RAG技术就像是给语言模型配备了一个智能的背景知识库,使其在面对复杂问题时,能够做出更加明智的回应。

2 GraphRAG:通过图形结构增强上下文

GraphRAG技术在传统RAG的基础上更进一步,通过构建信息的图形网络,实现了对数据的深度理解和应用。这不仅仅是简单地检索相关文档,更重要的是能够洞察文档中实体间的复杂联系。

举个例子,假设数据集中包含了纽约、洛杉矶和芝加哥等城市的信息。GraphRAG不仅能够检索到这些城市的相关资料,还能识别并利用它们之间的各种关系,比如纽约与洛杉矶之间的贸易伙伴关系,或是洛杉矶与芝加哥之间的文化交流项目。

这样的技术使GraphRAG在处理信息时能够展现出更为丰富的洞察力和更深层次的分析能力。

3 设置环境

源码地址:

https://github.com/aniket-work/why_graphRAG_such_game_changer


创建虚拟环境:

python-mvenvwhy_graphRAG_such_game_changer

激活环境:

why_graphRAG_such_game_changer\Scripts\activate(Windows)

sourcewhy_graphRAG_such_game_changer/bin/activate(Unix/macOS

安装依赖项:

cdpath/to/your/project
pipinstall-rrequirements.txt

使用Ollama拉取必要的模型:

ollamapullmistral
ollamapullnomic-embed-text

安装Ollama:

ollama--version

初始化和使用GraphRAG:

python-mgraphrag.index--init--rootragtest

下载数据

你可以下载任何你喜欢的数据,已经将一个小型的、基于场景的、面向关系的故事情节检查并放入了“input”文件夹中。

4 初始化过程

运行命令python -m graphrag.index --init --root ragtest初始化GraphRAG时,以下一系列操作将会自动进行:

创建配置文件

5 目的和用途

6 修改 settings.yaml

由于我们打算在本地运行graphRAG,需要对默认的 settings.yaml 文件进行一些更改。

encoding_model:cl100k_base
skip_workflows:[]
llm:
api_key{GRAPHRAG_API_KEY}
typepenai_chat
model:mistral
model_supports_json:true
api_base:http://localhost:11434/v1
parallelization:
stagger:0.3
async_mode:threaded
embeddings:
async_mode:threaded
llm:
api_key{GRAPHRAG_API_KEY}
typepenai_embedding
model:nomic_embed_text
api_base:http://localhost:11434/api

7 修改以使用 Ollama 嵌入

GraphRAG 本身不支持 Ollama 嵌入模型,但可以通过修改 GraphRAG 库中的特定文件来添加此支持。通过编辑 openai_embeddings_llm.py 文件,我们可以启用使用 Ollama 嵌入模型。这涉及导入必要的模块并更新代码以调用 Ollama 的嵌入函数,允许我们在 GraphRAG 管道中利用高级嵌入。

以下是如何更新 openai_embeddings_llm.py 文件的方法:

fromtyping_extensionsimportUnpack
fromgraphrag.llm.baseimportBaseLLM
fromgraphrag.llm.typesimportEmbeddingInput,EmbeddingOutput,LLMInput
from.openai_configurationimportOpenAIConfiguration
from.typesimportOpenAIClientTypes
importollama

classOpenAIEmbeddingsLLM(BaseLLM[EmbeddingInput,EmbeddingOutput]):
"""
使用 Ollama 进行嵌入的自定义 LLM(大型语言模型)实现。
"""

def__init__(self,client:OpenAIClientTypes,configuration:OpenAIConfiguration):
"""
初始化 OpenAIEmbeddingsLLM 实例。

参数:
client (OpenAIClientTypes):与AI服务交互的客户端。
configuration (OpenAIConfiguration): AI服务的配置设置。
"""
self._client=client
self._configuration=configuration

asyncdef_execute_llm(
self,input:EmbeddingInput,**kwargs:Unpack[LLMInput]
)->EmbeddingOutput|None:
"""
使用 Ollama 嵌入执行大型语言模型。

参数:
input (EmbeddingInput):嵌入模型的输入数据。
**kwargs (Unpack[LLMInput]):模型参数的附加关键字参数。

返回:
EmbeddingOutput | None:模型的输出嵌入或如果没有输出则为 None。
"""
args={
"model":self._configuration.model,
**(kwargs.get("model_parameters")or{}),
}
embedding_list=[]
forinpininput:
embedding=ollama.embeddings(model="nomic-embed-text",prompt=inp)
embedding_list.append(embedding["embedding"])
returnembedding_list

8 使用 GraphRAG 运行查询

使用以下命令索引数据:

python-mgraphrag.index--root.\ragtest

输出

运行查询以测试设置:

python-mgraphrag.query--root.\ragtest--methodglobal"HowwastheimpactofLily'sactiononvillagers"

输出

9 结语

未来,人工智能在商业领域的影响力将日益增强。那些能够将人工智能技术有效融入其业务运营的公司,将具备更快的创新速度、更优质的客户服务体验,以及更高效的流程优化能力。GraphRAG技术的出现,仅是人工智能潜力的冰山一角。

随着时间推移,人工智能将变得更加精密复杂。它将不仅能够理解问题,还能生成贴近人类思维的回答。预计不久的将来,企业将见证一种新型人工智能系统的诞生——这些系统不仅能够回答问题,还能基于海量数据分析提供战略性的见解和建议。因此,对于任何希望在竞争中保持领先地位的企业而言,积极拥抱人工智能并持续关注其最新发展,显得尤为关键。这不仅是一个选择,更是一个必然的趋势。

推荐书单

《Llama大模型实践指南》

本书共包括7章,涵盖了从基础理论到实际应用的全方位内容。第1章深入探讨了大模型的基础理论。第2章和第3章专注于Llama 2大模型的部署和微调,提供了一系列实用的代码示例、案例分析和最佳实践。第4章介绍了多轮对话难题,这是许多大模型开发者和研究人员面临的一大挑战。第5章探讨了如何基于Llama 2定制行业大模型,以满足特定业务需求。第6章介绍了如何利用Llama 2和LangChain构建高效的文档问答模型。第7章展示了多语言大模型的技术细节和应用场景。本书既适合刚入门的学生和研究人员阅读,也适合有多年研究经验的专家和工程师阅读。通过阅读本书,读者不仅能掌握Llama 2大模型的核心概念和技术,还能学会如何将这些知识应用于实际问题,从而在这一快速发展的领域中取得优势。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5