返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

DeepSeek-R1大模型本地化部署

[复制链接]
链载Ai 显示全部楼层 发表于 3 小时前 |阅读模式 打印 上一主题 下一主题

在全类别大模型的激烈竞争中,DeepSeek-R1大模型平均其卓越的性能,在各大模型中鹤立鸡群。不仅如此,在风格控制类模型的分类排名中,DeepSeek-R1和行业巨头OpenAI的o1模型并驾齐驱。DeepSeek-R1的Arena得分高达1357分,超越OpenAI o1的1352分,虽细微的差距,彰显了DeepSeek r1的技术精进。

Ollama作为一款便捷的模型运行工具,为DeepSeek-R1大模型本地化部署提供新的方法。今天,就来详细讲解如何利用Ollama 实现DeepSeek-R1大模型的本地化部署。

ollama


ollama 是一个致力于简化大模型运行的开源项目,它可以在本地轻松运行多种大模型。其具有简单易用的命令行界面,即使是新手也能快速上手。而且,ollama 支持自动下载和管理模型,极大地提高了模型部署的效率。同时,它对硬件资源的利用也较为高效,能在不同配置的设备上较好地运行,为大模型本地部署降低了门槛。

DeepSeek R1结合ollama部署优势


简化部署流程:传统的 DeepSeek -R1 大模型本地部署需要繁琐的环境配置和依赖安装,而借助 ollama,很多复杂的步骤都被简化,只需几条简单的命令,就能完成部署。

更好的兼容性:ollama 对多种系统和硬件环境有良好的兼容性,能适配不同的设备,让更多人可以顺利将 DeepSeek-R1 大模型部署到本地。

快速迭代:ollama 方便模型的更新和切换,当 DeepSeek-R1 大模型有新的版本发布时,可以通过 ollama 快速进行更新,始终保持使用最新的模型能力。

部署步骤


1、安装ollama

浏览器打开https://ollama.com

根据自己的系统,下载对应的ollama工具,

我这以windows为例,等下载完毕后,双击下载文件,即提示安装,安装过程非常简单。

安装完成后,在状态栏可以看到 Ollama的图标。

打开cmd命令行窗口,输入 ollama --version命令,输出

ollama version is 0.5.7。如图所示,即表示ollama安装成功。


2、下载DeepSeek-R1模型

浏览器打开:https://ollama.com/search

我们可以看到 deepseek r1显示在流行榜榜首

点击 deepseek-r1, 我们可以看到deepseek-r1大模型的详细信息。

我们可以看到大模型有多个版本(大模型参数量),不同参数量的大模型代表模型的大小。这里的 “b” 是 “Billion” 的缩写,代表十亿。因此,最小的deepseek-r1 7b 模型包含约 70 亿个参数,而最大的deepseek-r1 671b
模型则包含约 6710 亿个参数。模型越大,功能越强。

我们这次选择 deepseek-r1 8b模型

我们可以看到 右侧对话框直接给出了安装命令

ollama run deepseek-r1:8b

我们打开命令行工具

直接输入 ollama run deepseek-r1:8b,回车即可,自动下载对应的 deepseek-r1 8b模型

下载完成后,即立即进入了模型运行过程

输入我们的需求,即可与大模型 deepSeek r1模型进行交互



回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ