huggingface:
https://huggingface.co/Qwen/QwQ-32B
hf镜像站:
http://hf-mirror.com/Qwen/QwQ-32B
ollama:
https://ollama.com/library/qwq
也可以使用ollama直接拉取该模型,命令如下:
ollamarunqwq
相比较deepseek-r1 671b满血版,QwQ的资源占用极低!ollama平台q4量化版,仅占用20G显存,全量模型所需的显存也不超过80G即可实现流畅推理!另外,有小道消息说有DS相关人员提供技术支持哦!
QwQ-32B发布后,影响感觉还是很大的,尤其是对之前花了很多上671B的客户们来说,可能会肉疼一段时间吧!现在AI大模型的更新迭代太快,自从DeepSeek开源后,的的确确是促进了整个大模型的跃进式迭代更新,期待这些头部企业能够给我们带来更多更好的技术吧!
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |