返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

使用vLLM部署工具加速QWQ,推理速度比ollama更快、并发更高

[复制链接]
链载Ai 显示全部楼层 发表于 昨天 17:30 |阅读模式 打印 上一主题 下一主题

与传统的HuggingFace Transformers相比,vLLM的吞吐量高达24倍,且无需改变模型架构,它采用创新的PagedAttention算法,优化了注意力键和值的管理,从而提升了推理速度,并且其能够有效地利用多核CPU和GPU资源,显著提升LLM的推理速度。


相比于ollama,vllm输出的速度更快,支持的并发更高,目前也没有遇到安全问题,稳定性非常好,更适合作为服务器的接口服务来部署。


但相应的,vllm会把服务器的GPU显存都占满,使得机器无法再部署其他服务,同时ollama部署更加的简单,也是因为这个原因ollama在最近部署deepseek的热潮中被提到的更多一些,因此个人使用可能ollama更合适。


vLLM本地环境准备


vllm需要使用最新的0.7.3版本,支持思考过程增加<think>标签。

建议用conda新建一个环境来安装

pipinstallvllm==0.7.3


python环境我这里使用的是python3.8,显卡为a40显卡40g显存版本。


模型权重下载


因为网络问题,建议在阿里魔塔社区下载QWQ模型。



选择好对应的版本后,使用pip安装modelscope,便可以下载选中的版本模型了:


frommodelscopeimportsnapshot_downloadmodel_dir=snapshot_download('qwen/QWQ-32B')

vLLM部署运行模型


因为之前已经配置好vLLM的环境,所以使用以下命令可以运行模型:

/root/miniconda3/envs/vllm/bin/python-mvllm.entrypoints.openai.api_server--served-model-nameqwq-32b--model/root/.cache/modelscope/hub/qwen/QWQ-32B


参数解析:

模型路径:--model /root/.cache/modelscope/hub/qwen/QWQ-32B

模型名称:–served-model qwq-32b



写在最后

ingFang SC", system-ui, -apple-system, BlinkMacSystemFont, "Helvetica Neue", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 17px;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: 0.544px;orphans: 2;text-align: justify;text-indent: 0px;text-transform: none;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;white-space: normal;text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;background-color: rgb(255, 255, 255);">

2025年的今天,AI创新已如井喷,几乎每天都有新的技术出现。作为亲历三次AI浪潮的技术人,我坚信AI不是替代人类,而是让我们从重复工作中解放出来,专注于更有创造性的事情,关注我们公众号口袋大数据,一起探索大模型落地的无限可能!

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ