GLM-Z1-AirX(极速版):国内最快推理模型,推理速度高达200 tokens/s,8倍于常规速度;
GLM-Z1-Air(高性价比版):价格仅为DeepSeek-R1的1/30,适合高频调用场景;
GLM-Z1-Flash(免费版):支持免费使用,进一步降低模型使用门槛。
Agentic RAG问答流程(GLM-Z1-AirX)
pip install --upgrade zhipuaifromzhipuaiimportZhipuAIclient = ZhipuAI(api_key="")# 填写您自己的APIKeyresponse = client.chat.completions.create(model="GLM-Z1-AirX", # 填写需要调用的模型编码messages=[{"role":"user","content":"你好"}],stream=True,)forchunkinresponse:content = chunk.choices[0].delta.contentprint(content)
https://hf-mirror.com/collections/THUDM/glm-4-0414-67f3cbcb34dd9d252707cb2ehttps://github.com/modelcontextprotocol/python-sdk
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |