Anything LLM是一款基于RAG架构的本地知识库工具,能够将文档、网页等数据源与本地运行的大语言模型(LLM)相结合,构建个性化的知识库问答系统。它支持多种主流模型的API接入方式,如OpenAI、DeepSeek等。Anything LLM,第一步就是模型,这里我们选择Ollama,工具会自动读取我们本地已经安装的模型:Embedding(嵌入模型)和Vector Database(向量数据库)。Vector Database(向量数据库)Embedding和Vector Database:向量数据库我们也选择默认的LanceDB,它也是完全运行在本地且免费的。
初始设置完成后,我们尝试运行一下:
知识库的质量直接决定了模型基于知识库回答的效果,AI 友好的知识库结构,首先应层次清晰,按主题、领域或功能分类,建立从概括到具体的合理层级,像图书馆分类摆放书籍;还要易于检索,有精准关键词索引、全文检索功能和智能联想,方便快速定位知识;并且通过知识图谱、交叉引用建立数据关联,形成知识网络。
为了方便测试,我们让 AI 帮我生成一个测试的知识库数据,使用 MarkDown 格式:
Anything LLM支持上传多种类型的文件,包括常见的文本文件(如TXT、Markdown)、文档文件(如PDF、Word、PPT、Excel)、数据文件(如CSV、JSON) 等等:但是,在客户端下使用还是太局限了,Anything LLM 还提供了 API 调用的能力,这样我们就可以通过代码来灵活定制我们的使用场景,可以做很多事情,比如:私人知识管理工具、企业内部智能客服等等。
Anything LLM在本地启动的端口默认是 3001 。我们可以在设置 - 工具 - API 密钥下创建 API 密钥,并且查看 Anything LLM 提供的 API 文档:
Anything LLM提了非常详细的 API,基本上客户端内能做的事情都能使用 API 调用,包括各种设置、知识库上传、与大模型交互等等 ,点开每个 API 可以看到具体的参数详情,也可以直接测试调用:Anything LLM中与大模型的交互都发生在Workspace下的Thread中:slug和threadSlug,其实这两个参数就分别代表Workspace和Thread的唯一标识,在客户端我们是看不到这两个标识的,我们可以通过接口创建新的Workspace和Thread来获取,或者通过接口查询已有的Workspace和Thread的slug:接下来大家就可以随意发挥了...| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |