链载Ai

标题: 手把手教你AnythingLLM Ollama qwen 部署本地大模型 [打印本页]

作者: 链载Ai    时间: 1 小时前
标题: 手把手教你AnythingLLM Ollama qwen 部署本地大模型

利用周末的时间,在自己的笔记本电脑上部署一个本地大模型,过程也记录下来分享给对此有兴趣的朋友们。

步骤】

模型相关的基础概念这里不多赘述了,直接进入实战。

整个部署过程分为三个步骤:

步骤一:下载ollama大模型工具

步骤二:在ollama工具中,下载通义千问大模型

步骤三:下载AnythingLLM并配置选择ollama的通义千问模型,直接在窗口对话



※文末打包了本次部署的所有安装文件



【逐步骤讲解】

官网下载ollama

https://ollama.com/download



安装后启动ollama



命令行窗口,敲入命令ollama list,此时显示没有任何大模型,开始去下载

下载大模型,阿里千问0.5b(5亿参数)



ollama run qwen:0.5b



特意一早爬起来,网速快得飞起。小400M不到一分钟下载完成。



下载完成后,简单问一个小问题,看看反应如何?



0.5b是通义千问最小的一个模型,安装在普通笔记本上,反应速度还可以。返回的内容也还行,自己做练习搞点小研究足够了。



命令扩展:命令行窗口可以查看模型相关的信息



lollama list:显示模型列表。



lollama show:显示模型的信息



lollama pull:拉取模型



lollama push:推送模型



lollama cp:拷贝一个模型



lollama rm:删除一个模型



lollama run:运行一个模型



有条件的话,机器配置也能跟得上,可以下载更大的模型,如下表:

模型



参数



大小



下载



Llama 2



7B



3.8GB



ollama run llama2



Mistral



7B



4.1GB



ollama run mistral



Dolphin Phi



2.7B



1.6GB



ollama run dolphin-phi



Phi-2



2.7B



1.7GB



ollama run phi



Neural Chat



7B



4.1GB



ollama run neural-chat



Starling



7B



4.1GB



ollama run starling-lm



Code Llama



7B



3.8GB



ollama run codellama



Llama 2 Uncensored



7B



3.8GB



ollama run llama2-uncensored



Llama 2 13B



13B



7.3GB



ollama run llama2:13b



Llama 2 70B



70B



39GB



ollama run llama2:70b



Orca Mini



3B



1.9GB



ollama run orca-mini



Vicuna



7B



3.8GB



ollama run vicuna



LLaVA



7B



4.5GB



ollama run llava



Gemma



2B



1.4GB



ollama run gemma:2b



Gemma



7B



4.8GB



ollama run gemma:7b




Ollama服务默认地址和端口是http://127.0.0.1:11434/



服务开启时,访问该地址会返回Ollama is running



不过只能在命令行中玩耍还是不太方便,想个办法弄个网页版的,像chatgpt页面一样。



下载Anythingllm结合ollama使用。(这个文件有点大,干掉6个多G)



Anything下载地址https://anythingllm.com/desktop



安装后直接打开,创建新工作区




下面小扳手是设置,打开之后,

LLM提供商选择上面步骤安装的ollama,模型选择上面安装的qwen0.5b大模型。其他的默认不需修改



保存后,返回到我的工作区,聊天窗口可以愉快地体验自己部署的本地大模型啦。



到此为止,一个AnythingLLM+Ollama+qwen0.5b的本地大模型就部署好了。







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5