返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

探索Triplex模型:一种比微软Graph Rag更具创新性的知识图谱构建方法

[复制链接]
链载Ai 显示全部楼层 发表于 10 小时前 |阅读模式 打印 上一主题 下一主题


在科技领域,创新始终是推动进步的动力。今天我们要探讨的是一种名为Triplex的模型,它在知识图谱构建方面提供了一种比微软GraphRag更具创新性且成本更低的替代方案。本文将详细介绍这种模型的工作原理、优势以及如何在实际应用中操作和实现。

Sciphi Triplex模型简介

Scihpi Triplex模型,简称triplex,是一种开源大语言模型,专注于从非结构化数据中提取知识图谱。它的名字来源于其能够提取文本中的实体、关系和实体类型。这个模型是基于53.8亿参数的语言模型进行微调,旨在创建高质量的知识图谱。

与微软Graph Rag的对比

成本与性能

Triplex的成本是微软Graph Rag的十分之一,但性能却与GPT-4相当,甚至在某些方面更为高效。微软的Graph Rag虽然功能强大,但资源消耗高,使用成本也较高。而Triplex则通过优化算法和架构设计,提供了高性价比的解决方案。.


灵活性与易用性

Triplex模型支持多样且复杂的应用场景,用户可以立即使用R2R Rag引擎和Neo4J进行数据可视化。而在使用微软Graph Rag时,用户需要先将数据转换为Neo4J兼容格式,这增加了操作复杂性。Triplex在这方面提供了更高的灵活性和易用性。

准确性与训练数据

在准确性方面,Triplex模型在知识图谱提取上优于GPT-4。Triplex使用的是开源的Triplex大语言模型,并且可以通过HuggingFace和Ollama运行。此外,用户可以在本地计算机上免费运行Ollama,这大大降低了使用门槛。

实际操作步骤

接下来,我们将详细介绍如何使用Triplex模型从文本中提取知识图谱,并将其存储在数据库中进行可视化。

1. 基础知识介绍

首先,我们需要了解基本的概念。知识图谱构建(Graph Rag)与基本的检索增强生成(Basic Rag)不同,后者是将数据转换为嵌入并存储在向量数据库中。而前者则是从提供的数据中提取实体和关系,并将其存储在知识图谱数据库中。

2. 安装必要的库

在开始操作之前,我们需要安装一些必要的库:

pip install transformers torch

3. 创建Python文件并编写代码

接下来,我们将创建一个名为app.py的文件,并在其中编写代码:

import json
from transformers import AutoModelForCausalLM, AutoTokenizer

def triple_extract(model, tokenizer, text, entities, predicates):
# 提供输入主题、谓词和宾语
prompt = f"{text} [{entities}] [{predicates}]"
tokens = tokenizer.encode(prompt, return_tensors='pt')
output = model.generate(tokens)
response = tokenizer.decode(output[0], skip_special_tokens=True)
return response

model_name = "sci-fi-trix"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

text = "Elon Musk is the founder of SpaceX"
entities = "erson, Organization"
predicates = "founded by"

response = triple_extract(model, tokenizer, text, entities, predicates)
print(response)

4. 运行代码

在终端中运行以下命令:

python app.py

代码将自动下载模型并运行请求,生成的响应将包含提取的实体和关系。

使用OLama进行简化操作

除了上述方法,还可以使用O Lama进行简化操作。首先,下载ollama:

然后运行Sci-Fi XX:

ollamarunsciphi/triplex

输入与之前相同的文本和实体类型,模型将返回提取的实体和三元组。

使用R2R进行简化

为了进一步简化整个过程,我们可以使用R2R。sciphi的创建公司还提供了R2R工具,帮助用户构建、扩展和管理面向用户的RAG应用。

1. 安装R2R

pip install r2r

2. 配置文件

创建一个名为local_neo4j_kg的文件,并在其中添加配置:

model_name: sci-fi-trix
providers:
neo4j:
uri: bolt://localhost:7687
user: neo4j
password: your_password

3. 运行R2R

r2r serve docker --config local_neo4j_kg.yaml

4. 数据导入

准备一个名为data.txt的文件,内容如下:

John is a person that works at Google. Paul is a person that works at Microsoft that collaborates with John.

运行以下命令进行数据导入:

r2r ingest files data.txt

5. 查看知识图谱

运行以下命令查看知识图谱:

r2r inspect knowledge_graph

6. 可视化

打开Neo4J的URL,输入用户名和密码,即可查看知识图谱的关系。

总结

通过使用sciphi模型,我们可以以更低的成本和更高的效率构建高质量的知识图谱。无论是使用Hugging Face、OLama还是R2R,sciphi都提供了极大的灵活性和易用性。希望本文能为您提供有用的信息,让您在知识图谱构建领域取得更大的进展。


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ