链载Ai

标题: 腾讯开源了个知识库系统,在飞牛NAS上部署玩玩! [打印本页]

作者: 链载Ai    时间: 昨天 19:31
标题: 腾讯开源了个知识库系统,在飞牛NAS上部署玩玩!


兄弟们,腾讯最近开源了一个知识库系统,将大语言模型集成到了文档理解和语义检索框架,能够为结构复杂内容异构的文档提供更加专业的检索。

今天来一起看看这个知识库系统吧,并在飞牛 NAS上部署一下玩玩。

一、介绍

WeKnora(维娜拉)是一款基于大语言模型(LLM)的文档理解与语义检索框架,专为结构复杂、内容异构的文档场景而打造。

该框架采用模块化架构,融合了多模态预处理语义向量索引智能召回大模型生成推理等技术,构建起高效、可控的文档问答流程。

其核心检索流程基于RAG(Retrieval - Augmented Generation)机制,能将上下文相关片段与语言模型结合,从而实现更高质量的语义回答

二、功能特性

WeKnora拥有诸多强大的功能特性,使其在文档处理领域脱颖而出:

三、在飞牛 NAS 上部署

本文教大家怎么在飞牛 NAS 上部署,主要是通过 Docker 进行部署,理论上在其他支持 Docker 的设备上也可以部署

首先打开飞牛的SSH 登录功能:

执行下面的命令切换到root账户:

sudo -i

然后切换到 NAS 的指定目录(比如我这里创建了一个 docker 目录):

然后执行下面的命令 clone 项目:

gitclonehttps://github.com/Tencent/WeKnora.git

然后进入到项目根目录:

cdWeKnora

配置环境变量:

# 复制示例配置文件
cp .env.example .env

# 编辑 .env,填入对应配置信息
# 所有变量说明详见 .env.example 注释

然后执行下面的命令启动项目:

docker compose up -d

中间如果遇到postgres的端口问题,可以在.env中修改postgres的端口。

如果遇到 80 端口的问题,可以在docker-compose.yml中修改80 端口为其他的:

如果出现下面的内容,则表示启动成功:

与此同时,可以在飞牛 OS 的 Docker 管理界面看到运行着的项目:

至此,WeKnora就搭建好了,下面我们一起来体验一下。

四、体验

在浏览器输入http://IPort,其中 IP 是飞牛 OS 的 IP,Port 是上面修改的 30080 端口,比如我的是:http://192.168.66.6:30080

在进入首页之后,首先会让设置一些信息,比如:大模型配置Embedding 模型配置Rerank 模型配置多模态配置文档分割配置

其中大模型配置可以实用本地的 Ollama 模型,或者远程的大模型:

Embedding 模型也是,可以选择用本地或者远程的:

设置好之后,保存进入主页面:

上传几个文档看看,可以看到知识库自动分析了文档的内容,并进行了总结:

下面提问下看看:

可以看到知识库参考了一些文档内容,并进行了总结回答:

好了,今天的介绍就到这里了,大家感兴趣的话快去试试吧!

五、总结

WeKnora 作为一款基于大模型的文档理解检索框架,凭借其精准的文档理解能力、智能的推理功能、灵活的扩展特性、高效的检索机制以及简单易用和安全可控等优势,在企业知识管理、科研文献分析、产品技术支持、法律合规审查、医疗知识辅助等众多场景中都能发挥重要作用。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5