链载Ai

标题: 智谱旗舰模型GLM-4.6上线,代码能力全面进阶 [打印本页]

作者: 链载Ai    时间: 昨天 22:23
标题: 智谱旗舰模型GLM-4.6上线,代码能力全面进阶

在AGI的探索中,我们再次突破大模型的能力边界。


作为GLM系列的最新版本,GLM-4.6是我们最强的代码Coding模型(较GLM-4.5提升27%)。在真实编程、长上下文处理、推理能力、信息搜索、写作能力与智能体应用等多个方面实现全面提升。如下:



GLM-4.6已上线智谱MaaS平台bigmodel.cn,即将在Hugging Face、ModelScope开源,遵循MIT协议。



Coding能力创国产模型新高

  1. 1.综合评测


在8大权威基准:AIME 25、LCB v6、HLE、SWE-Bench Verified、BrowseComp、Terminal-Bench、τ^2-Bench、GPQA 模型通用能力的评估中,GLM-4.6在部分榜单表现对齐Claude Sonnet 4/Claude Sonnet 4.5,稳居国产模型首位。


图片


  1. 2.真实编程评测


为了测试模型在实际编程任务中的能力,我们在Claude Code环境下进行了74个真实场景编程任务测试。结果显示,GLM-4.6实测超过Claude Sonnet 4,超越其他国产模型。


图片


在平均token消耗上,GLM-4.6比GLM-4.5节省30%以上,为同类模型最低。


图片


为确保透明性与可信度,智谱已公开全部测试题目与Agent轨迹,供业界验证与复现(链接:https://huggingface.co/datasets/zai-org/CC-Bench-trajectories)。



适配寒武纪、摩尔线程芯片

GLM-4.6已在寒武纪领先的国产芯片上实现FP8+Int4混合量化部署,这是首次在国产芯片投产的FP8+Int4模型芯片一体解决方案,在保持精度不变的前提下,大幅降低推理成本,为国产芯片在大模型本地化运行上开创了可行路径。


基于vLLM推理框架部署,摩尔线程新一代GPU可基于原生FP8精度稳定运行GLM-4.6,充分印证了MUSA架构和全功能GPU在生态兼容与快速支持方面的强大优势。


GLM-4.6和寒武纪、摩尔线程国产芯片的组合,即将通过智谱MaaS平台正式面向大众和企业提供服务。未来,国产原创GLM大模型与国产芯片将联合推动在模型训练和推理环节的性能与效率优化。



Coding Plan 全面升级

随着GLM-4.6发布,智谱同步升级GLM Coding Plan(最低20元包月畅玩套餐)。同时推出GLM Coding Plan企业版套餐,为企业级用户提供兼具安全、成本效益与国际顶尖性能的编码套餐。


此前订阅GLM Coding Plan包月套餐的用户自动升级至GLM-4.6,新增:



获取与体验



GLM-4.6的上一代模型GLM-4.5首次在单个模型中实现将推理、编码和智能体能力原生融合。GLM-4.5在代码能力上的突出表现让其取得一些成绩,在OpenRouter上稳居全球前十供应商,自发布后智谱MaaS平台API商业化实现10倍以上增长。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5