链载Ai

标题: 体验最新 Qwen2.5 模型 [打印本页]

作者: 链载Ai    时间: 5 小时前
标题: 体验最新 Qwen2.5 模型

我们通过 ollama拉取qwen2.5和 qwen2.5-coder 到本地。

qwen2.5

首先看看 qwen2.5 的文本生成能力,让它写一首藏头诗和写一篇儿童睡前故事。

新闻总结

中英翻译

qwen2.5-coder

接下来看看代码模型的能力,让它输出执行的结果。

List<String>list=newArrayList<String>(Arrays.asList("a","b","c","d"));for(inti=0;i<list.size();i++){list.remove(i);}System.out.println(list);

从执行效果来看,是不对的,正确答案是[b, d]

这是一个隐藏的Bug,也没有回答上来。

正确答案是会精度丢失。

0.069999999999999990.5800000000000001401.499999999999940.30310000000000004

以下是求100以内素数的 java 代码,让它改为使用 python 实现。

public class PrimeNumbers {public static void main(String[] args) {int n = 100;boolean[] isPrime = new boolean[n + 1];for (int i = 2; i <= n; i++) {isPrime[i] = true;}
for (int factor = 2; factor * factor <= n; factor++) {if (isPrime[factor]) {for (int multiple = factor * factor; multiple <= n; multiple += factor) {isPrime[multiple] = false;}}}
System.out.println("rime numbers up to " + n + ":");for (int i = 2; i <= n; i++) {if (isPrime[i]) {System.out.print(i + " ");}}}}

从代码执行上来看是正确的。

总结

由于本地下载的都是一些小的参数模型,并不能够完全体验到模型的真实能力,有能力的小伙伴可以尝试一下大参数的模型。

但是总体来说,个人本地使用的话,也是不错的选择,毕竟国内来说,通义千问算是最好的了。

配合一些本地的 web-ui 框架,例如 ollama-webui,就可以本地使用了,哪怕没有显卡也能运行,速度也不算慢。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5