链载Ai

标题: 构建企业私有RAG大模型: (可商用)DeepSeek-V3开源部署,真的强吗? [打印本页]

作者: 链载Ai    时间: 1 小时前
标题: 构建企业私有RAG大模型: (可商用)DeepSeek-V3开源部署,真的强吗?

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;line-height: normal;text-align: center;background-color: rgb(255, 255, 255);visibility: visible;box-sizing: border-box !important;overflow-wrap: break-word !important;">

在前两篇文章中,我们详细介绍了如何通过 vLLM 高效部署开源模型 GLM-4-9B-Chat 和 Qwen2.5,并分享了验证代码。这两款模型体量较小,使用单张 4090 显卡即可部署,且在企业实际应用场景中表现优异。

本章将聚焦当前备受瞩目的开源模型 DeepSeek-V3。作为一款自称超越所有开源模型,甚至在部分能力上超过闭源模型的产品,DeepSeek-V3展现了惊人的潜力。不过,从 RAG 系统的实际需求来看,采用 DeepSeek-V3 似乎有些“大材小用”,它更适合应用于数学与代码等需要强推理能力的场景。

下表是DeepSeek-V3官网给出基础模型的测试打分:

官网打分部分截取

从这份测试报告中可以看到,DeepSeek-V3 在代码(Code)和数学(Math)领域全面超越了几款主流开源模型,尤其是阿里的 Qwen2.5-72B。值得注意的是,Qwen2.5-72B 本身已是一款强大的模型,尤其在 Code 和 Math 上表现不俗,而报告中显示 DeepSeek-V3 的性能超越了它,这无疑为业界带来了一次令人瞩目的技术突破,进一步巩固了其在高复杂性任务中的领先地位。

DeepSeek-V3介绍

我们提出了 DeepSeek-V3,这是一个强大的混合专家 (MoE) 语言模型,总共有 671B 个参数,每个 token 激活 37B。为了实现高效的推理和经济高效的训练,DeepSeek-V3 采用了多头潜在注意力 (MLA) 和 DeepSeekMoE 架构,这些架构在 DeepSeek-V2 中得到了彻底的验证。此外,DeepSeek-V3 开创了一种无辅助损失的负载平衡策略,并设置了多 token 预测训练目标以获得更强大的性能。我们在 14.8 万亿个多样化和高质量的 token 上对 DeepSeek-V3 进行了预训练,然后进行监督微调和强化学习阶段,以充分利用其功能。综合评估表明,DeepSeek-V3 优于其他开源模型,并实现了与领先的闭源模型相当的性能。尽管性能出色,但 DeepSeek-V3 仅需要 2.788M H800 GPU 小时即可完成完整训练。此外,它的训练过程非常稳定。在整个训练过程中,我们没有遇到任何无法恢复的损失峰值或执行任何回滚。(摘自DeepSeek-V3官网)
根据 DeepSeek-V3 官网说明,V3 在以下三个方面实现了显著改进:架构设计、预训练方法以及训练后优化。这些提升使其在多个任务中展现了更强的性能和更广泛的适用性。

架构:创新负载平衡策略和训练目标

预训练:实现终极训练效率

训练后:来自 DeepSeek-R1 的知识提炼

DeepSeek-V3部署

DeepSeek-V3 可以使用以下硬件和开源社区软件在本地部署:

  1. DeepSeek-Infer 演示:我们为 FP8 和 BF16 推理提供了一个简单、轻量级的演示。
  2. SGLang:完全支持 BF16 和 FP8 推理模式下的 DeepSeek-V3 模型,并即将推出多令牌预测功能。
  3. LMDeploy:支持本地和云部署的高效 FP8 和 BF16 推理。
  4. TensorRT-LLM:目前支持 BF16 推理和 INT4/8 量化,即将支持 FP8。
  5. vLLM:支持具有 FP8 和 BF16 模式的 DeepSeek-V3 模型,实现张量并行和流水线并行。
  6. AMD GPU:支持在 BF16 和 FP8 模式下通过 SGLang 在 AMD GPU 上运行 DeepSeek-V3 模型。
  7. 华为Ascend NPU:支持在华为Ascend设备上运行DeepSeek-V3。

接下来,将详细讲解如何使用 SGLang 和 vLLM 高效部署 DeepSeek-V3 的具体步骤。

SGLang部署DeepSeek-V3

GPU建议

如果您没有具有足够大内存的GPU,请尝试多节点张量并行。

安装和启动

如果启动服务器时遇到错误,请确保权重已下载完成。建议提前下载或多次重启,直到下载完所有权重。

使用 Docker(推荐)

# Pull latest image# https://hub.docker.com/r/lmsysorg/sglang/tagsdocker pull lmsysorg/sglang:latest
# Launchdocker run --gpus all --shm-size 32g -p 30000:30000 -v ~/.cache/huggingface:/root/.cache/huggingface --ipc=host lmsysorg/sglang:latest \ python3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-code --port 30000
对于高QPS场景,添加--enable-dp-attention参数以提高吞吐量。

使用 pip

# Installationpip install"sglang[all]>=0.4.1.post5"--find-links https://flashinfer.ai/whl/cu124/torch2.4/flashinfer
# Launchpython3 -m sglang.launch_server --model deepseek-ai/DeepSeek-V3 --tp 8 --trust-remote-code
对于高QPS场景,添加--enable-dp-attention参数以提高吞吐量。

使用 OpenAI API 发送请求

importopenaiclient = openai.Client(  base_url="http://127.0.0.1:30000/v1", api_key="EMPTY")
# Chat completionresponse = client.chat.completions.create( model="default", messages=[ {"role":"system","content":"You are a helpful AI assistant"}, {"role":"user","content":"你真的那么强吗?"}, ], temperature=0, max_tokens=64,)print(response)

vLLM部署DeepSeek-V3
vLLMv0.6.6 支持 NVIDIA 和 AMD GPU 上 FP8 和 BF16 模式的 DeepSeek-V3 推理,除了标准技术外,vLLM 还提供管道并行性,让您可以在通过网络连接的多台机器上运行此模型。
介绍管道并行

简而言之,您应该增加 GPU 数量和节点数量,直到您有足够的 GPU 内存来容纳模型。张量并行大小应该是每个节点中的 GPU 数量,管道并行大小应该是节点数量。

安装和启动

通过查阅 vLLM 的 issue 列表可以发现,目前 vLLM 对 DeepSeek-V3 的支持仅处于基础运行阶段,性能尚未达到预期。因此,暂不提供安装和启动的详细指南。待 vLLM 的增强计划完成后,我们会及时更新相关内容并提供完整的部署说明。

部署推荐
建议企业采用SGLang部署DeepSeek-V3

写在最后

DeepSeek-V3 在代码和数学领域表现突出,对于关注这些方向的企业来说无疑是一大喜讯。毕竟,这两项能力在市场上有着广阔的应用前景,而以往具有高性能的模型大多为闭源且高成本。DeepSeek-V3 的出现,以开源形式提供了强大的能力,不仅降低了门槛,也为创业和技术创新提供了更多可能性。它的发布在大模型领域引发了不小的轰动,为行业带来了更多选择和活力。

题外话:在 DeepSeek-V3 提供的聊天门户中,我尝试了一段 Prompt 的生成,出于好奇,将这段 Prompt 分别用于测试文心一言、豆包、Kimi、元宝和通义等模型。结果如何,你们一定想不到!建议大家亲自尝试一下。

Prompt如下:

帮我写1个面向年轻女性宣传一款内衣的品牌营销slogan,简洁吸睛,富有创意,字数要求150字。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5