链载Ai

标题: 双卡 RTX 5090 深度体验:AI 推理框架选择与性能限制实测 [打印本页]

作者: 链载Ai    时间: 昨天 12:54
标题: 双卡 RTX 5090 深度体验:AI 推理框架选择与性能限制实测

ingFang SC", system-ui, -apple-system, BlinkMacSystemFont, "Helvetica Neue", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;color: rgb(31, 35, 41);margin: 0px 0px 4px;word-break: break-all;min-height: 20px;">最近有幸拿到了一台配备双卡 NVIDIA GeForce RTX 5090 显卡的工作站PC,这无疑是许多追求极致性能的开发者梦想装备。不过,新硬件的到来往往伴随着一些挑战,尤其是在软件适配和性能表现方面。

ingFang SC", system-ui, -apple-system, BlinkMacSystemFont, "Helvetica Neue", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;color: rgb(31, 35, 41);margin: 0px 0px 4px;word-break: break-all;min-height: 20px;">通过销售渠道了解到,目前国内市场上暂时还没有涡轮散热版的 RTX 5090,我们拿到的是风扇版。这意味着在多卡配置时需要特别注意散热和空间。

ingFang SC", system-ui, -apple-system, BlinkMacSystemFont, "Helvetica Neue", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;color: rgb(31, 35, 41);margin: 0px 0px 4px;word-break: break-all;min-height: 20px;">在本文中,我们将分享在 Ubuntu 系统下配置这台双卡 5090 机器进行 AI 推理的实践过程,重点探讨大家可能关心的几个问题:用什么推理框架?性能如何?是否存在传闻中的性能限制?这也是一次深度的体验和实测。

ingFang SC", system-ui, -apple-system, BlinkMacSystemFont, "Helvetica Neue", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;color: rgb(31, 35, 41);margin: 0px 0px 4px;word-break: break-all;min-height: 20px;">

ingFang SC", system-ui, -apple-system, BlinkMacSystemFont, "Helvetica Neue", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.578px;margin-top: 0px;margin-bottom: 8px;font-size: 26px;padding-bottom: 12px;">一、 测试平台概览

ingFang SC", system-ui, -apple-system, BlinkMacSystemFont, "Helvetica Neue", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;color: rgb(31, 35, 41);margin: 0px 0px 4px;word-break: break-all;min-height: 20px;">首先,简单介绍一下我们的测试平台配置:

ingFang SC", system-ui, -apple-system, BlinkMacSystemFont, "Helvetica Neue", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;color: rgb(31, 35, 41);margin: 0px 0px 4px;word-break: break-all;min-height: 20px;">

ingFang SC", system-ui, -apple-system, BlinkMacSystemFont, "Helvetica Neue", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;color: rgb(31, 35, 41);margin: 0px 0px 4px;word-break: break-all;min-height: 20px;">

ingFang SC", system-ui, -apple-system, BlinkMacSystemFont, "Helvetica Neue", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;color: rgb(31, 35, 41);margin: 0px 0px 4px;word-break: break-all;min-height: 20px;">系统环境:

nvidia-smi确认两张 RTX 5090 均被正确识别,CUDA 12.8 环境就绪。

Image

二、 AI 推理框架的选择:Ollama、SGLang 还是 vLLM?

拿到新卡,自然要跑一下 AI 模型。但面对新硬件,推理框架的选择至关重要。哪个框架能无缝衔接,哪个又需要我们“动手”解决兼容性问题呢?

2.1 Ollama:开箱即用,配置简单

好消息是,Ollama 已经支持使用 RTX 5090 进行推理。配置过程非常简单,对于想快速上手体验的用户来说是首选。

2.2 SGLang:暂时不支持

根据我们的测试,SGLang 目前最高支持到 CUDA 12.4。因此,SGLang 暂时无法直接在 RTX 5090 上使用。希望后续版本能尽快适配。

2.3 vLLM:需要“动手能力”

vLLM 是一个非常流行的推理框架,但其最新发布版(如 0.8.2)并不直接支持 RTX 5090的sm_120计算能力。

#CUDA版本低报错:
RuntimeError: CUDA error:nokernel imageisavailableforexecutiononthe device

#使用PyTorch2.6.0报错:
NVIDIA GeForce RTX5090withCUDA capability sm_120isnotcompatiblewiththecurrentPyTorch installation.
ThecurrentPyTorch install supports CUDA capabilities sm_50 sm_60 sm_70 sm_75 sm_80 sm_86 sm_90.
If you wanttouse the NVIDIA GeForce RTX5090GPUwithPyTorch, pleasecheckthe instructionsathttps://pytorch.org/get-started/locally/

解决方案:需要自行编译 vLLM。这需要满足特定条件:使用 PyTorch 的 Nightly 版本,并确保 CUDA 版本为 12.8。这对环境配置和编译经验有一定要求,我们在配置相对较低的机器上手动编译未能成功。


小结:对于 RTX 5090 用户,目前最便捷的推理框架是 Ollama。如果你是 vLLM 的深度用户且具备编译能力和耐心,可以尝试自行编译以获得最佳性能。


三、 Ollama 推理性能初探

既然 Ollama 支持良好,我们便使用它加载deepseek-r1:32b模型进行了初步的性能测试。

启动命令:

ollamarundeepseek-r1:32b--verbose

从初步测试看,单张 RTX 5090 在 Ollama 下运行 32B 模型的性能表现令人满意。nvtop监控显示单卡工作状态良好。

Image

四、 重点验证:RTX 5090 是否存在类似 5090D 的性能限制?

这是本次深度体验的核心环节。此前,根据 Chiphell 论坛等渠道的消息,针对中国市场的 RTX 5090D 版本被曝存在一些限制,例如:

Image

那么,我们手上这张标准版的 RTX 5090(非 D 版)在国内使用时,是否也存在这些令人担忧的问题呢?我们设计了以下压力测试来对其进行严格的实测验证:

4.1验证方案

  1. 1.使用 Ollama 加载大型模型跨卡推理:加载deepseek-r1:70b模型(显存需求约 45GB),让其同时在两张 RTX 5090 上运行,模拟真实的重度 AI 推理场景。
# 确保 Ollama 可以使用两张卡 (GPU 0 和 1)
CUDA_VISIBLE_DEVICES=0,1 ollama run deepseek-r1:70b --verbose
  1. 2.结合压力测试工具:在运行 Ollama 大模型的同时,使用evalscope(模拟高并发推理请求) 和gpu-burn(GPU 极限计算负载测试) 将两张 5090 的性能压榨到极限,观察是否存在性能骤降或锁定。

4.2准备工作

pipinstall'evalscope[app,perf]'-U-ihttps://mirrors.aliyun.com/pypi/simple/
git clone https://github.com/wilicc/gpu-burn
cd gpu-burn
make

4.3启动压测

# 向 Ollama (运行 70b 模型) 发起并行推理请求
evalscope perf --parallel 8 --url http://127.0.0.1:11434/v1/chat/completions --model deepseek-r1:32b --log-every-n-query 10 --connect-timeout 600 --read-timeout 600 --api openai --prompt '写一个科幻小说,不少于2000字' -n 20
# 在 CPU 核心 0 和 1 上运行 gpu-burn,持续 360 秒,压榨 GPU 计算单元
taskset -c 0-1 ./gpu_burn 360
Image

4.4 压测结果与结论

在长达 3 分钟的持续高强度压力测试下(结合 Ollama 70b 模型跨卡推理、evalscope 并发请求、gpu-burn 极限计算):

总结

本次双 RTX 5090 的深度体验为我们带来了不少有价值的信息。对于计划在 Linux 环境下利用双 RTX 5090 进行 AI 工作的朋友们,目前来看:


希望这次的双 RTX 5090 深度体验和实测,特别是关于框架选择和性能限制的验证,能为你的决策提供有价值的参考。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5