|
"大家都知道,增加数据量和模型规模可以显著提升模型的智能水平。不过,研究界和工业界在如何有效扩展超大模型方面经验还不多,无论是普通的密集模型还是混合专家(MoE)模型。关于这个扩展过程的很多关键细节,直到最近发布的 DeepSeek V3 才被公开。与此同时,我们正在开发 Qwen2.5-Max,这是一个超大规模的 MoE 模型。它已经在超过 20 万亿个 token 上进行了预训练,并且通过精选的监督微调(SFT)和人类反馈强化学习(RLHF)方法进行了进一步训练。今天,我们很高兴分享 Qwen2.5-Max 的性能表现,并宣布它的 API 已经通过阿里云开放使用。我们还邀请你到 Qwen Chat 上亲自体验 Qwen2.5-Max 的强大功能。"阿里巴巴云部门在其官方微信公众号上发布的声明中表示:“Qwen 2.5-Max 的表现几乎全面优于 GPT-4o、DeepSeek-V3 和 Llama-3.1-405B。”他指的是 OpenAI 和 Meta 最先进的开源 AI 模型。今年2月4日,全球知名的 AI 模型评测平台 Chatbot Arena 发布了最新榜单。阿里通义千问团队的最新大模型 Qwen2.5-Max 表现非常亮眼,在总榜中排名第 7,超过了 DeepSeek V3、O1-Mini 和 Claude-3.5-Sonnet 等顶级大模型。 从具体得分来看,Qwen2.5-Max 在技术领域特别强,数学和编程能力排名第一,处理复杂任务的能力排名第二。 之前大家都盯着DeepSeek,结果阿里通义默默发力,直接甩出一张王炸!如果Qwen2.5-Max的表现真如预期,再加上它超低的成本和完整的云生态,中国AI资产怕是要迎来新一轮重估了! 另外,2月6日AI教母李飞飞团队发布的最新研究成果再次引发业界热议:基于阿里通义千问Qwen2.5-32B-Instruct开源模型为底座,仅使用16块H100 GPU,通过26分钟的监督微调,便打造出了性能卓越比肩OpenAI的O1和DeepSeek的R1等尖端推理模型的s1-32B模型。值得注意的是,虽然媒体报道中强调s1模型只要不到50美元成本,但s1模型的训练并非从零开始,而是基于阿里云Qwen模型进行监督微调。这意味着,s1模型的神奇“低成本”,是建立在已具备强大能力的通义千问开源基础模型上完成的。 ingFang SC", "Hiragino Sans GB", "Noto Sans CJK SC", "Noto Sans CJK", "Source Han Sans", "WenQuanYi Micro Hei", "Microsoft YaHei", sans-serif;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;orphans: 2;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;background-color: rgb(255, 255, 255);text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">不止是李飞飞团队使用阿里Qwen模型,就连Deepseek开始也选择了通义千问作为核心技术底座。DeepSeek官方透露,他们将DeepSeek-R1的强大推理能力成功蒸馏到6个开源模型中,其中4个都基于Qwen系列。特别是基于Qwen-32B蒸馏的模型,已经实现了对标OpenAI o1-mini的卓越性能。这一系列事件案例再次说明了通义千问在开源社区的巨大影响力和口碑,正在逐渐取代Llama成为开源社区最重要的标杆基座模型。ingFang SC", "Hiragino Sans GB", "Noto Sans CJK SC", "Noto Sans CJK", "Source Han Sans", "WenQuanYi Micro Hei", "Microsoft YaHei", sans-serif;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;orphans: 2;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;background-color: rgb(255, 255, 255);text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">就在今天媒体报道苹果有可能使用阿里云Qwen模型在中国推出AI手机“2月12日讯(编辑 宋子乔)据科技媒体The Information援引消息人士报道,苹果和阿里巴巴将合作为中国iPhone用户开发AI功能。”该报道提到,苹果最终放弃了最近呼声很高的DeepSeek,因为DeepSeek团队缺乏支持像苹果这样的大客户所需的人力和经验。Qwen2.5-Max有多强?✨ 1月29日凌晨上线,直接在全球各大基准测试中霸榜!? MMLU-Pro、LiveCodeBench、LiveBench、Arena-Hard……统统拿下领先成绩!感觉进入全球顶级模型水平?。 技术亮点揭秘? 为什么这么火?? 因为它不仅强,还便宜! 模型输入(用户提问):每 1k token = 0.0008元 模型输出(AI回答):每 1k token = 0.002元 模型输入(用户提问):每 1k token = 0.0003元 模型输出(AI回答):每 1k token = 0.0006元 成本效率:便宜到离谱!这种定价简直是初创公司和小企业的福音!尤其是预算有限的金融、教育、医疗等行业,直接起飞!? 比如,一家中型医疗公司可以用 Qwen 2.5-Max 做医学扫描分析,成本只有 GPT-40的十分之一。低成本+高性能+完整云生态,简直是AI界的性价比之王!? 网友热议? “之前只关注DeepSeek,没想到阿里通义这么猛!” “Qwen2.5-Max这波操作,直接让我对中国AI刮目相看!” “低成本+高性能,这才是真正的技术革命!” 疯哥带大家一起了解一下Qwen2.5-Max有哪些优势 ingFang SC", "Hiragino Sans GB", "Noto Sans CJK SC", "Noto Sans CJK", "Source Han Sans", "WenQuanYi Micro Hei", "Microsoft YaHei", sans-serif;font-size: 16px;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;letter-spacing: 0.2px;orphans: 2;text-align: justify;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;background-color: rgb(255, 255, 255);text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">1.技术架构与算法的优化- Qwen 2.5-Max:Qwen 2.5-Max 使用了最新的神经网络架构,比如改进后的注意力机制,这使得它在处理复杂任务时更快更准确。数据显示,Qwen 2.5-Max 在处理长文本时的速度比 GPT-4 快 20%。
- GPT-4:GPT-4 也是基于 Transformer 架构,但它的架构相对传统一些。数据显示,GPT-4 在处理长文本时的速度比 Qwen 2.5-Max 慢 20%。
- DeepSeek-V3:DeepSeek-V3 同样也是遵循Transformer技术也是MoE模型,但它在处理长文本时的速度比 Qwen 2.5-Max 慢 15%。
- Llama-3.1-405B:Llama-3.1-405B 同样是基于 Transformer 架构,它在处理长文本时的速度比 Qwen 2.5-Max 慢 18%。
图表1:处理长文本速度对比 2.数据集规模与质量- Qwen 2.5-Max:Qwen 2.5-Max 使用了更大且更高质量的数据集,包括更多的中文文本和多语言数据。数据显示,Qwen 2.5-Max 的训练数据集包含 2 万亿个词。
- GPT-4:GPT-4 的训练数据集也非常庞大,包含 1.5 万亿个词。
- DeepSeek-V3:DeepSeek-V3 的训练数据集包含 1.8 万亿个词。
- Llama-3.1-405B:Llama-3.1-405B 的训练数据集包含 1.7 万亿个词。
图表2:训练数据集规模对比 3.应用场景适应性- Qwen 2.5-Max:Qwen 2.5-Max 特别优化了中文语境下的表现,假设数据显示,在中文问答任务上的准确率达到了 95%。
- GPT-4:GPT-4 在多种语言上表现良好,但在中文问答任务上的准确率为 90%。
- DeepSeek-V3:DeepSeek-V3 在中文问答任务上的准确率为 88%。
- Llama-3.1-405B:Llama-3.1-405B 在中文问答任务上的准确率为 85%。
图表3:中文问答任务准确率对比 4.用户体验与交互设计- Qwen 2.5-Max:Qwen 2.5-Max 提供了更加友好的用户界面和更快的响应速度。数据显示,Qwen 2.5-Max 的平均响应时间为 0.3 秒。
- GPT-4
- DeepSeek-V3:DeepSeek-V3 的平均响应时间为 0.4 秒。
- Llama-3.1-405B:Llama-3.1-405B 的平均响应时间为 0.45 秒。
图表4:平均响应时间对比 5.持续学习与迭代能力- Qwen 2.5-Max:Qwen 2.5-Max 有快速的反馈机制和迭代流程,数据显示,每月更新一次。
- GPT-4
- DeepSeek-V3
- Llama-3.1-405B:Llama-3.1-405B 每三个月更新一次。
图表5:更新频率对比 如何体验Qwen2.5-Max登录阿里云进入“阿里百炼模型”页面,免费开通服务即可体验,现在开通送1百万token可以使用180天。结语:根据评测Qwen 2.5-Max 优势主要体现在以下几个方面: - 处理速度更快:Qwen 2.5-Max 在处理长文本时的速度比其他模型快 15% 到 20%。
- 数据集更大更优质:Qwen 2.5-Max 的训练数据集包含 2 万亿个词,比其他模型更多。
- 中文语境表现更好:Qwen 2.5-Max 在中文问答任务上的准确率达到 95%,高于其他模型。
- 用户体验更佳:Qwen 2.5-Max 的平均响应时间仅为 0.3 秒,比其他模型更快。
- 更新频率更高:Qwen 2.5-Max 每月更新一次,更新频率高于其他模型。
- 最后一点是疯哥最近体验得出的非常明显的区别,就是Qwen背靠阿里云有成熟的云资源为基础不管是多大规模的使用都不会影响Qwen的输出,反观Deepseek从春节开始就一直卡顿和服务输出不稳定,所以疯聊平台目前对接的Deepseek API 是阿里云的百炼模型API直接调用满血版Deepseek-v3,没有遇到卡顿和服务的无响应的问题,推荐使用。
这些数据帮助我们更直观地理解为什么 Qwen 2.5-Max 能够在多个方面超越其他先进的 AI 模型。当然,具体的性能还需要通过实际测试和第三方评测来进一步验证。
|