链载Ai

标题: 比R1快8倍,智谱开源GLM-Z1系列,实测 Agentic AI 也能极速深度推理! [打印本页]

作者: 链载Ai    时间: 5 小时前
标题: 比R1快8倍,智谱开源GLM-Z1系列,实测 Agentic AI 也能极速深度推理!
太卷了,智谱一口气开源6个模型,即新一代开源模型 GLM-4-32B-0414 系列,包含基座、推理、沉思模型,MIT License,不限制商用。
不想自己部署的小伙伴可以直接登录全新站点https://chat.z.ai/试用。
此次开源最大的亮点是具有深度思考能力的推理模型 GLM-Z1-32B,主打一个“为快不破”:国内迎来最快的推理模型。
为满足不同场景需求,上线到智谱MaaS开放平台bigmodel.cn的推理模型分为三个版本:
200 tokens/s极速深度推理,给推理模型的落地场景带来了无限可能,PaperAgent就最经典的Agentic AI应用场景:Agentic RAG/MCP应用(含代码解析),对GLM-Z1-AirX进行了第一手实测。
GLM-Z1-AirX加持的Agentic RAG
Agentic RAG过程应用于问答的一个代表性示例,主要由2大流程组成:

Agentic RAG问答流程(GLM-Z1-AirX)

总结类型Query: A股行情经历了怎样的变化
GLM-Z1-AirX仅在【12.8s】就给出了长达2246字的答案,并且答案也比较丰富,全面。
这个速度直接让你的RAG系统直接赢在了thinking线上,可能别人还在thinking,你已经给出答案了。
这里以DeepSeek-R1作为对比,thinking阶段就花费20s,最终答案1764字,总耗时63.3s
GLM-Z1-AirX流式使用指南
pip install --upgrade zhipuai
fromzhipuaiimportZhipuAIclient = ZhipuAI(api_key="")# 填写您自己的APIKeyresponse = client.chat.completions.create( model="GLM-Z1-AirX", # 填写需要调用的模型编码 messages=[ {"role":"user","content":"你好"} ], stream=True,)forchunkinresponse: content = chunk.choices[0].delta.contentprint(content)
GLM-Z1-AirX加持的MCP应用
选这个场景测试,是因为不少小伙伴对MCP与Function Call的关系有困惑,比如“mcp 和 function call可以共存吗?”,今天以GLM-Z1-AirX作为基础模型对剖析MCP应用的工作流程:
https://hf-mirror.com/collections/THUDM/glm-4-0414-67f3cbcb34dd9d252707cb2ehttps://github.com/modelcontextprotocol/python-sdk






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5