链载Ai

标题: 18k star 的开源本地部署大模型利器-Jan,支持启动本地服务 [打印本页]

作者: 链载Ai    时间: 3 天前
标题: 18k star 的开源本地部署大模型利器-Jan,支持启动本地服务

在之前《没有网络限制!超简单本地部署 Llama3 的方法》文章中,有介绍了 LM Studio 这款免费软件,总得来说是很好用的,但是它是闭源的,也不知道后面会不会有一些收费之类的政策,所以我们还需要一个随时可以用来替代它的产品——Jan✨✨



是什么?

Jan 是一个开源的、可作为 ChatGPT 替代品的客户端产品,在 Github 上已经斩获18k 的 star,它支持:

  1. 部署本地大模型:直接在个人电脑上运行 Llama 或 Mistral 等 AI 模型以完成私有化部署。无需互联网连接 - 将所有数据和处理保存在本地。

  2. 调用远程 API:支持连接到远程 API,例如 OpenAI、Groq 或 Mistral API。无需高级硬件即可访问 AI 功能,所有处理均在云端处理。

  3. 100% 离线使用:哪怕没网,也能流畅使用,一切数据都只保留在个人电脑上。

  4. 跨平台:支持 Apple Intel、Linux Debian 和 Windows x64 以及 Apple M 系列。

  5. 扩展:属于高级玩儿法,可以自定义 Jan 来满足特定需求。

它的安装及使用十分简单,哪怕是一个 AI 小白,也可以轻松实现在自己电脑上部署本地大模型。接下来让我们一起来看看如何安装它并部署模型吧~

安装

部署本地大模型或者调用远端模型

修改模型的下载地址

将下图红框中选中的 url 替换为hf-mirror.com即可:

写代码什么的也没啥问题:

调用 OpenAI 的 ChatGPT

除此之外,我们也可以试试使用 OpenAI 的 ChatGPT,以 3.5 为例。因为之前部署过 FreeGPT35,所以也用不到 API Key,直接在「EXTENSIONS-OpenAI Inference Engine」里修改「Chat Completions Endpoint」即可:

注意红框后面那半截路径不要丢,不然就没法成功调用

设置好之后回到对话部分,在右侧的模型中选择「Remote-Open AI GPT 3.5 Turbo」开始对话:

成功调通~:?:?

启动本地服务

点击左下角的「Local API Server」可以启动一个本地服务,这样我们在其他客户端也能访问本地大模型了

如上图,一旦启动服务器,我们就无法在 Jan 中进行聊天了,只能通过调用这个服务的方式。

服务启动后,我们可以点击「Stop Server」按钮下的 API Reference 来查看可用的 API 都有哪些,也可以看到左侧的 assistant 菜单已经被禁用(这就是对话菜单)

API Reference 打开之后会列出可用的 API 接口,我们以/chat/completion为例进行调用:

可以看到还是很丝滑的,如果我们在此基础上,再内网穿透一下,就可以实现外网访问本地大模型了:?:

有点遗憾的是,Phi-3 模型在三金下载到本地并导入到 Jan 里之后却无法运行起来,看了下 issue 也有人提出了一样的问题,希望后续能支持吧。

今天的分享就到这里了,感兴趣的小伙伴快去试试吧~??

github 地址: https://github.com/janhq/jan






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5