返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

Ollama本地部署DeepSeek翻译“他强任他强,清风拂山岗;他横任他横,明月照大江”

[复制链接]
链载Ai 显示全部楼层 发表于 半小时前 |阅读模式 打印 上一主题 下一主题
1.认识Ollama
关于Ollama的介绍中见得最多的版本是:“Ollama是一个开源的轻量级可扩展框架,用于本地机器上构建、运行和管理大型模型。”
它有几个关键词:轻量级、本地、构建运行和管理。这说明Ollama擅长在单机上部署和运行大模型,用它来在低配置的笔记本上运行大模型是再好不过的了。
2.安装Ollama
官网是:https://ollama.com/ MacOS,Linux,Windows版本都有,按照自己的需要下载安装即可。
对于Windows则是下载一个exe文件进行安装执行,对于MacOS更简单了,使用命令:
brewinstallollama
即可完成安装。
然后使用如下命令: ollama pull xxx 就可以运行名为xxx的模型了。Ollama在本地实际是以CS架构方式运行的,如果在MacOS上遇到如下错误:
Error:couldnotconnecttoollamaapp,isitrunning?
可能是在MacOS没有自动将Ollama注册成Server,只要手动执行下Ollama serve命令即可解决该错误。
今天王毅外长使用金庸名句“他强任他强,清风拂山岗;他横任他横,明月照大江”来表达中美关系,cue到了DeepSeek, 因此就用这个任务来看看本地部署DeepSeek的效果吧。
3.Windows上翻译
我的Windows配置是i932G, 显卡4G内存。使用如下命令运行Deepseek-R1 14B模型:
ollamarundeepseek-r1:14b
第一次执行因为本地没有模型,因此会有一个下载模型的过程,模型文件大概是9G,下载因网络而已,快速的时候能达到8M/s。
第一次翻译效果如下图所示:
整体来看,中规中矩,算是直译了。
在执行的时候,独立显存可以使用到3G的样子。这个性能还是很强劲的,记得之前跑Qwen模型, 2.5B的是极限了, Deepseek可以跑14B,进化速度真的很快很快。
4.MacOS上翻译
我的MacOS配置是M1,16G内存,即2021年的Mac。一开始觉得这个配置跑不起来14B的模型,抱着试一试想法安装了Ollama后,第一次翻译效果如下图所示:
对比Windows的第一次推理差很多,让它重新翻译给出了如下版本:
这次算是中规中矩了。在推理的时候, MacOS GPU使用率在60~70%,内存使用率则飙升,这是因为MacOS的显卡并不是使用的独享内存,而是和整个系统共享的内存。
最后,看看DeepSeek官网和chatGPT的翻译:
DeepSeek官网:

chatGPT官网:

对比来看,官网的体验确实更好些, 可能是本地部署的只是14B有关吧。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ