可以看到 gemma3:27b 完胜啊,回答清晰,逻辑清楚。
gpt-oss 推理逻辑有点问题,注意看,他说 ,9.11 只比 9.00 小 0.11。很明显是大 0.11 吧。不过他结论倒是对的。
完美,逻辑清晰。
也能够清晰的拆解出比较整数部分和小数部分,还算清晰。
也能够说出,就是思考太啰嗦了。不过他考虑了日期的情况,考虑得还全面。
我的本地就部署了这么多模型了,你可能很好奇,为什么我可以
helpmed问一个问题
就可以让 deepseek-r1:14 模型就会回答我问题了呢?因为我在本地写了一个 shell 脚本,把他注册到我的shell 环境中啦,脚本如下。
# 自定义的 AI 助手函数
functionhelpme() {
# 临时禁用 glob 扩展,避免中文标点符号被当作通配符
setoptlocal_options
setoptno_glob
# 检查是否有参数
if[[$#-eq 0 ]];then
echo"用法: helpme [g|o|d] <你的问题>"
echo" g - 使用 gemma3:27b"
echo" o - 使用 gpt-oss:20b"
echo" d - 使用 deepseek-r1:14b"
echo" q - 使用 qwen3:30b"
echo""
echo"示例: helpme g 如何使用 Docker?"
echo"示例: helpme o 什么是机器学习?"
echo"示例: helpme d 解释一下这段代码"
echo"示例: helpme q 写一个快速排序"
return1
fi
localmodel=""
localfirst_arg="$1"
# 根据第一个参数选择模型
case"$first_arg"in
"g")
model="gemma3:27b"
shift
;;
"o")
model="gpt-oss:20b"
shift
;;
"d")
model="deepseek-r1:14b"
shift
;;
"q")
model="qwen3:30b"
shift
;;
*)
# 如果第一个参数不是 g/o/d/q,则默认使用 gpt-oss,并且不移除第一个参数
model="gpt-oss:20b"
;;
esac
# 检查是否还有问题内容
if[[$#-eq 0 ]];then
echo"请输入你的问题。"
echo"用法: helpme [g|o|d|q] <你的问题>"
return1
fi
# 将剩下的所有参数作为问题
localquestion="$*"
# 提示用户,并调用 Ollama
echo"🤖 正在向$model请教
question"
echo"---"
ollama run"$model""$question"
}这样,我就可以在本地方便调用我的模型啦,平常在 shell 命令中直接问。比如我忘记了怎么创建软链接了,我可以直接
helpmed建立软连接的命令是啥?
然后直接在命令行下就给我巴拉巴拉了,我都不用切到其他地方去了。岂不是很爽 YY?
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |