|
1.模型定位与平衡运行硬件需求
1.5B/7B/8B版本
定位:中小型模型、轻量级模型、平衡型模型
参数规模:1.5B(15亿)、7B(70亿)、8B(80亿)
特点:轻量级模型,资源消耗低,推理速度快,但处理复杂任务的能力有限。
硬件需求:普通消费级GPU(如RTX3090/4090 GPU,显存≥4GB)
适用场景:
·本地开发和测试:可处理一些常规的翻译、总结、摘要、生成等常见任务。
·轻量级应用:常规智能助手、常规文本生成工具(如摘要生成、基础问答)、轻量级多轮对话系统等。
·实时性要求高的场景:用于某些资源受限的环境下所使用。
14B/32B版本
定位:大型模型、高性能模型、专业型模型
参数规模:14B(140亿)、32B(320亿)
特点:中等规模模型,推理能力显著提升,支持复杂逻辑推理和代码生成。
硬件需求:高端GPU(如RTX4090/A5000 GPU,显存≥16GB)
适用场景:
·中高等复杂任务:长文本理解生成、高级别文本翻译、高级别文本分析、专业领域的知识图谱构建等需要较高精度的任务。
·专业开发工具:如专业型数据分析(如辅助编程或企业级文档处理)、深度内容分析处理等。
70B/671B版本
定位:超大规模模型、顶级模型
参数规模:70B(700亿)、671B(6710亿)
特点:顶级大模型,擅长复杂推理和海量数据处理。
硬件需求:大规模云端计算集群(如多卡A100/H100 GPU,显存≥80GB)
适用场景:
·科研与高精度任务:如医学数据分析、复杂数学证明、战略决策支持等。
·云端服务:大型企业的数据挖掘、大型企业的前沿探索、超长超复杂内容处理等。
DeepSeek-R1-xx各版本本地部署硬件配置对比表
模型版本
| CPU
| 内存
| GPU
| GPU型号示例
| 1.5B
| 4核+
| 8GB+
| 非必需,可选4GB+
| 如GTX 1650/RTX2060
| 7B
| 8核+
| 16GB+
| 8GB+
| 如RTX 3070/4060
| 8B
| 8核+
| 16GB+
| 8GB+
| 如RTX 3070/4060
| 14B
| 12核+
| 32GB+
| 16GB+
| 如RTX 4090/A5000
| 32B
| 16核+
| 64GB+
| 24GB+
| 如A100 40GB
| 70B
| 32核+
| 128GB+
| 多卡
| 如2xA100 80GB
| 671B
| 64核+
| 512GB+
| 多卡
| 如8xA100/H100
|
2.模型本地化部署
1.下载Ollama
官网:https://ollama.com
打开官网,如下图,很醒目的一个「Download」 点击一下,下载对应系统的版本,即可 ,如下图。 macOS、Windows直接显示对应版本下载,Unix显示安装命令。
安装完成后,在命令行终端,输入ollama -v测试,显示版本号,表示安装成功,如下图:
2.安装DeepSeek-R1模型
在Ollama 官网的「Models」导航处,搜索「deepseek」。
使用ollama run deepseek-r1:XX命令进行安装,XX为版本号,如下图:
ollama run deepseek-r1:32b回车,等待下载成功。看到success,下载完成
3.使用DeepSeek对话 模型下载好后,在终端里就可以和deepseek 进行对话。
4.安装客户端
安装客户端,ChatBox、Cherry Studio 等都可以,这里我使用ChatBox 集成 DeepSeek。
ChatBox 官网链接:https://chatboxai.app,下载对应系统的版本安装即可。
配置本地模型
设置模型地址和参数,选好模型提供方为ollama和模型deepseek-r1,然后保存即可
以上,安装部署使用DeepSeek-R1 的全过程。 |