链载Ai

标题: 本地部署了一个 gpt-oss:20b,实测同级别感觉还不如deepseek-R1:14b [打印本页]

作者: 链载Ai    时间: 昨天 21:55
标题: 本地部署了一个 gpt-oss:20b,实测同级别感觉还不如deepseek-R1:14b


直接上图了,看下面的效果,我的问题是让模型来比较 9.11 和 9.8 的大小。

可以看到 gemma3:27b 完胜啊,回答清晰,逻辑清楚。

gpt-oss:20b

gpt-oss 推理逻辑有点问题,注意看,他说 ,9.11 只比 9.00 小 0.11。很明显是大 0.11 吧。不过他结论倒是对的。

gemma3:27b

完美,逻辑清晰。

<a href=DeepSeek-r1:14b" class="rich_pages wxw-img" data-ratio="0.7601851851851852" data-type="png" data-w="1080" style='box-sizing: border-box;border-width: 0px;border-style: solid;border-color: rgb(229, 229, 229);display: block;vertical-align: middle;max-width: 100%;text-align: left;line-height: 1.75;font-family: Menlo, Monaco, "Courier New", monospace;font-size: 16px;margin: 0.1em auto 0.5em;border-radius: 8px;box-shadow: rgba(0, 0, 0, 0.1) 0px 4px 8px;height: auto !important;' title="null" data-imgfileid="100000271" src="https://api.ibos.cn/v4/weapparticle/accesswximg?aid=120700&url=aHR0cHM6Ly9tbWJpei5xcGljLmNuL3N6X21tYml6X3BuZy9ZQ2RudDNtNjZMbXI0MlhHSGhLaWFweG1sTWVHdjFuaE91TzRYaWNoalB4RU8zSUxSaWE5eFpPdjBpYnlhOUp6RlExMk9rWVpHVjhNQndpYXFrTzBIV1pyTlRRLzY0MD93eF9mbXQ9cG5nJmFtcA==;from=appmsg">

也能够清晰的拆解出比较整数部分和小数部分,还算清晰。

qwen3:30b

也能够说出,就是思考太啰嗦了。不过他考虑了日期的情况,考虑得还全面。

我的本地就部署了这么多模型了,你可能很好奇,为什么我可以

helpmed问一个问题

就可以让 deepseek-r1:14 模型就会回答我问题了呢?因为我在本地写了一个 shell 脚本,把他注册到我的shell 环境中啦,脚本如下。

# 自定义的 AI 助手函数
functionhelpme() {

# 临时禁用 glob 扩展,避免中文标点符号被当作通配符
setoptlocal_options
setoptno_glob

# 检查是否有参数
if[[$#-eq 0 ]];then
echo"用法: helpme [g|o|d] <你的问题>"
echo" g - 使用 gemma3:27b"
echo" o - 使用 gpt-oss:20b"
echo" d - 使用 deepseek-r1:14b"
echo" q - 使用 qwen3:30b"
echo""
echo"示例: helpme g 如何使用 Docker?"
echo"示例: helpme o 什么是机器学习?"
echo"示例: helpme d 解释一下这段代码"
echo"示例: helpme q 写一个快速排序"
return1
fi

localmodel=""
localfirst_arg="$1"

# 根据第一个参数选择模型
case"$first_arg"in
"g")
model="gemma3:27b"
shift
;;
"o")
model="gpt-oss:20b"
shift
;;
"d")
model="deepseek-r1:14b"
shift
;;
"q")
model="qwen3:30b"
shift
;;
*)
# 如果第一个参数不是 g/o/d/q,则默认使用 gpt-oss,并且不移除第一个参数
model="gpt-oss:20b"
;;
esac

# 检查是否还有问题内容
if[[$#-eq 0 ]];then
echo"请输入你的问题。"
echo"用法: helpme [g|o|d|q] <你的问题>"
return1
fi

# 将剩下的所有参数作为问题
localquestion="$*"

# 提示用户,并调用 Ollama
echo"🤖 正在向$model请教question"
echo"---"
ollama run"$model""$question"
}

这样,我就可以在本地方便调用我的模型啦,平常在 shell 命令中直接问。比如我忘记了怎么创建软链接了,我可以直接

helpmed建立软连接的命令是啥?

然后直接在命令行下就给我巴拉巴拉了,我都不用切到其他地方去了。岂不是很爽 YY?






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5