|
利用周末的时间,在自己的笔记本电脑上部署一个本地大模型,过程也记录下来分享给对此有兴趣的朋友们。 【步骤】 模型相关的基础概念这里不多赘述了,直接进入实战。 整个部署过程分为三个步骤: 步骤一:下载ollama大模型工具 步骤二:在ollama工具中,下载通义千问大模型 步骤三:下载AnythingLLM并配置选择ollama的通义千问模型,直接在窗口对话
※文末打包了本次部署的所有安装文件
【逐步骤讲解】 官网下载ollama https://ollama.com/download
安装后启动ollama
命令行窗口,敲入命令ollama list,此时显示没有任何大模型,开始去下载 下载大模型,阿里千问0.5b(5亿参数)
ollama run qwen:0.5b
特意一早爬起来 ,网速快得飞起。小400M不到一分钟下载完成。
下载完成后,简单问一个小问题,看看反应如何?
0.5b是通义千问最小的一个模型,安装在普通笔记本上,反应速度还可以。返回的内容也还行,自己做练习搞点小研究足够了。
命令扩展:命令行窗口可以查看模型相关的信息
lollama list:显示模型列表。
lollama show:显示模型的信息
lollama pull:拉取模型
lollama push:推送模型
lollama cp:拷贝一个模型
lollama rm:删除一个模型
lollama run:运行一个模型
有条件的话,机器配置也能跟得上,可以下载更大的模型,如下表: 模型
| 参数
| 大小
| 下载
| Llama 2
| 7B
| 3.8GB
| ollama run llama2
| Mistral
| 7B
| 4.1GB
| ollama run mistral
| Dolphin Phi
| 2.7B
| 1.6GB
| ollama run dolphin-phi
| Phi-2
| 2.7B
| 1.7GB
| ollama run phi
| Neural Chat
| 7B
| 4.1GB
| ollama run neural-chat
| Starling
| 7B
| 4.1GB
| ollama run starling-lm
| Code Llama
| 7B
| 3.8GB
| ollama run codellama
| Llama 2 Uncensored
| 7B
| 3.8GB
| ollama run llama2-uncensored
| Llama 2 13B
| 13B
| 7.3GB
| ollama run llama2:13b
| Llama 2 70B
| 70B
| 39GB
| ollama run llama2:70b
| Orca Mini
| 3B
| 1.9GB
| ollama run orca-mini
| Vicuna
| 7B
| 3.8GB
| ollama run vicuna
| LLaVA
| 7B
| 4.5GB
| ollama run llava
| Gemma
| 2B
| 1.4GB
| ollama run gemma:2b
| Gemma
| 7B
| 4.8GB
| ollama run gemma:7b
|
Ollama服务默认地址和端口是http://127.0.0.1:11434/
服务开启时,访问该地址会返回Ollama is running
不过只能在命令行中玩耍还是不太方便,想个办法弄个网页版的,像chatgpt页面一样。
下载Anythingllm结合ollama使用。(这个文件有点大,干掉6个多G)
Anything下载地址https://anythingllm.com/desktop
安装后直接打开,创建新工作区
下面小扳手是设置,打开之后, LLM提供商选择上面步骤安装的ollama,模型选择上面安装的qwen0.5b大模型。其他的默认不需修改
保存后,返回到我的工作区,聊天窗口可以愉快地体验自己部署的本地大模型啦。
到此为止,一个AnythingLLM+Ollama+qwen0.5b的本地大模型就部署好了。
|