链载Ai

标题: 超详细使用Ollama本地部署Deepseek [打印本页]

作者: 链载Ai    时间: 3 小时前
标题: 超详细使用Ollama本地部署Deepseek

Ollama+Chatbox部署法

安装Ollama

访问官网:

打开浏览器,前往Ollama官方网站。页面如下:

下载安装包:

点击下面的按钮,这里选择自己的电脑的版本,我这里是windows的

之后就会进行下载了。

当然,如果官网下载比较慢的话,可以通过百度网盘获取

链接:https://pan.baidu.com/s/1970Py8uuLmCLWMozRV0UJw?pwd=chuv提取码: chuv

安装Ollama:

下载完成后,双击安装包启动安装程序。按照安装向导的提示逐步完成安装。

验证安装:

打开电脑的命令提示符(CMD)或终端,输入“ollama help”并按下回车键。若软件安装成功,将不会显示任何错误信息。

下载DeepSeek模型

这里的 “1.5b”“7b” 等中的 “b” 通常代表 “billion”(十亿),指的是模型的参数数量。

参数数量是衡量语言模型规模的一个重要指标,参数越多,模型通常能够学习和表示更复杂的知识和语言模式,但同时对计算资源的需求也更高。以下是不同参数规模对应可能的电脑配置(仅供参考,实际可能因具体应用场景等有所不同):

模型参数规模
CPU
GPU
内存
存储
1.5b
多核高性能 CPU(如 Intel Core i7 及以上或 AMD Ryzen 7 及以上)
显存 4GB 及以上的中低端 GPU(如 NVIDIA GeForce GTX 1050Ti 等)
16GB 及以上
50GB 及以上
7b
多核高性能 CPU(如 Intel Xeon 系列或 AMD EPYC 系列等)
显存 8GB 及以上的中高端 GPU(如 NVIDIA GeForce RTX 2070 等)
32GB 及以上
100GB 及以上
8b
多核高性能 CPU(如 Intel Xeon 系列或 AMD EPYC 系列等)
显存 8 - 12GB 的中高端 GPU(如 NVIDIA GeForce RTX 3070 等)
32GB 及以上
100GB 及以上
14b
多核高性能 CPU(如 Intel Xeon Platinum 系列或 AMD EPYC 7000 系列等)
显存 16GB 及以上的高端 GPU(如 NVIDIA A10 等)
64GB 及以上
200GB 及以上
32b
多核高性能 CPU(如 Intel Xeon Platinum 系列或 AMD EPYC 7000 系列等)
显存 32GB 及以上的高端 GPU(如 NVIDIA A100 等)
128GB 及以上
500GB 及以上
70b
多核高性能 CPU(如 Intel Xeon Platinum 系列或 AMD EPYC 7000 系列等)
多块显存 32GB 及以上的高端 GPU(如多块 NVIDIA A100 等)
256GB 及以上
1TB 及以上
671b
超级计算机级别的 CPU 集群
大规模 GPU 集群(如多组 NVIDIA A100 组成的集群)
TB 级
数 TB 及以上

在windows搜索命令提示符,

然后执行刚刚复制的:ollama run deepseek-r1:1.5b

等待下载完成即可。

之后就可以进行提问了

配置可视化图文交互界面Chatbox

不过我们还是选择下载到本地的方式,放在桌面方便我们的使用。

下载成功之后,双击进行安装

选择安装路径,这里忘记截图了。

下一步之后,就安装完成了,点击完成即可。

如果下载比较慢的话,可以从百度链接获取

通过网盘分享的文件:Chatbox-1.9.1-Setup.exe

链接:https://pan.baidu.com/s/1ldrrMsjHiY_GHilkzMdOIw?pwd=4db4提取码: 4db4






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5