还在为本地部署DeepSeek大模型发愁吗?
今天给大家介绍一个超强神器 - Ollama!从只有135m参数的“迷你怪兽”,到671B参数的“地球最强AI”,你都能一键拥有!
没错,这个工具已经在GitHub上获得了惊人的12.9万Star!
它到底有多强?看看这个数据:比DeepSeek-V3的8.75万Star还要高出整整一个量级!
一句话:Ollama让你一键驾驭全球顶级大模型!
从DeepSeek-R1到Qwen,再到Llama 3.3、Phi-4、Gemma 2,啥都有!
官网直达:https://ollama.com/
三大核心功能,一个都不能少:
打开ollama模型库(https://ollama.com/library),
最吸睛的当属DeepSeek-R1!
为什么?因为DeepSeek太强了呗hh!
从1.5B到671B参数,29种不同部署方案,总有一款适合你!
除了DeepSeek-R1,这些模型也超级给力:
不只是R1,DeepSeek还有超多实力派:
Qwen2.5系列绝对是实力担当!从0.5B到72B全系列覆盖,性能超强,部署超易!
只有135M参数,比Qwen2.5最小版本还要小一半多!完美适配端侧部署!
(小提示:中文场景建议选择Qwen2.5,外国模型中文支持普遍偏弱)
首先打开官网,选择适合你电脑的安装包:
?下载太慢?国内专属通道:
链接:https://pan.baidu.com/s/1dlMY-Y-XW2lhbC8Bz9vaTg?pwd=gefg
提取码: gefg
下载后双击安装程序,一路点"下一步"就行,完全不用担心设置问题!
安装完成后,你会看到这个界面:
这时会弹出一个框问你"是否允许安装到命令行",选"允许"就对了!
接下来重点来了!我们要打开"命令行":
系统默认给了个命令:ollama run llama3.2
但这个模型中文不太行,我们换个更厉害的!
打开模型库,找到DeepSeek-R1。这里的选择很关键:
新手建议:先试试1.5B版本,熟悉了再升级!
在命令行输入:ollama run deepseek-r1:1.5b
等待下载开始:
看到"success"就是成功啦!如果下载特别慢,可以Ctrl+C中断重试。
让我们问问:"世界上最高的山峰是?"
1.5B版本的回答:
咦?这回答怎么还带"新疆"?这就是小模型的问题了:
别担心!换个7B版本试试:
完美!回答准确、清晰、专业!
聊完了想退出?超简单! 输入/bye,按回车就行!
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |