链载Ai

标题: vLLM Qwen-32B Open Web UI构建本地私有大模型 [打印本页]

作者: 链载Ai    时间: 5 小时前
标题: vLLM Qwen-32B Open Web UI构建本地私有大模型

ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;letter-spacing: normal;orphans: 2;text-align: justify;text-indent: 0px;text-transform: none;white-space: normal;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;background-color: rgb(255, 255, 255);text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">目录

    ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-size: 16px;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: justify;text-indent: 0px;text-transform: none;white-space: normal;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;background-color: rgb(255, 255, 255);text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;" class="list-paddingleft-1">
  1. vLLM简介
  2. ModelScope简介
  3. Docker环境配置
  4. 运行vLLM容器
  5. Open Web UI部署
  6. Tokens与上下文

ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;letter-spacing: normal;orphans: 2;text-align: justify;text-indent: 0px;text-transform: none;white-space: normal;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;background-color: rgb(255, 255, 255);text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">1. vLLM简介

ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: justify;text-indent: 2em;text-transform: none;white-space: normal;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;background-color: rgb(255, 255, 255);text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">vLLM(Vectorized Large Language Model Serving System)是由加州大学伯克利分校团队开发的高性能、易扩展的大语言模型(LLM)推理引擎,专注于通过创新的内存管理和计算优化技术实现高吞吐、低延迟、低成本的模型服务。vLLM采用PagedAttention内存管理技术,显著提升GPU显存利用率,同时支持分布式推理,能高效利用多机多卡资源。无论是低延迟、高吞吐的在线服务,还是资源受限的边缘部署场景,vLLM 都能提供卓越的性能表现。


ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;letter-spacing: normal;orphans: 2;text-align: justify;text-indent: 0px;text-transform: none;white-space: normal;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;background-color: rgb(255, 255, 255);text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">2. ModelScope简介

ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;font-style: normal;font-variant-ligatures: normal;font-variant-caps: normal;font-weight: 400;letter-spacing: normal;orphans: 2;text-align: justify;text-indent: 2em;text-transform: none;white-space: normal;widows: 2;word-spacing: 0px;-webkit-text-stroke-width: 0px;background-color: rgb(255, 255, 255);text-decoration-thickness: initial;text-decoration-style: initial;text-decoration-color: initial;">ModelScope‌是一个由阿里巴巴集团推出的开源模型即服务(MaaS)平台,旨在简化模型应用的过程,为AI开发者提供灵活、易用、低成本的一站式模型服务产品。该平台汇集了多种最先进的机器学习模型,涵盖自然语言处理、计算机视觉、语音识别等多个领域,并提供丰富的API接口和工具,使开发人员能够轻松地集成和使用这些模型。‌

安装ModelScope
pipinstallmodelscope-ihttps://pypi.tuna.tsinghua.edu.cn/simple
创建存储目录
mkdir-p/data/Qwen/models/Qwen-32B
下载QwQ-32B模型
modelscopedownload--local_dir/data/Qwen/models/Qwen-32B--modelQwen/QWQ-32B

3. 启用与优化NVIDIA GPU
更新软件包列表
sudoapt-getupdate&&sudoapt-getinstall-ynvidia-container-toolkit
配置NVIDIA容器运行时
sudonvidia-ctkruntimeconfigure--runtime=docker
重启服务
sudosystemctldaemon-reload&&sudosystemctlrestartdocker

4. 运行vLLM容器
拉取镜像
dockerpulldocker.1panel.live/vllm/vllm-openai
启动vLLM容器
dockerrun-itd--restart=always--nameQwen-32B\-v/data/Qwen:/data\-p18005:8000\--gpus'"device=1,2,3,4"'\--ipc=host--shm-size=16g\vllm/vllm-openai:latest\--dtypebfloat16\--served-model-nameQwen-32B\--model"/data/models/Qwen-32B"\--tensor-parallel-size4\--gpu-memory-utilization0.95\--max-model-len81920\--api-keytoken-abc123\--enforce-eager
Docker命令参数解析详解
VLLM模型启动参数

5. Open Web UI部署
拉取open-webui镜像
dockerpullghcr.nju.edu.cn/open-webui/open-webui:main
启动Open Web UI
dockerrun-d-p3000:8080--add-host=host.docker.internal:host-gateway\-v/data/open-webui:/app/backend/data\--nameopen-webui--restartalwaysghcr.nju.edu.cn/open-webui/open-webui:main
访问Web界面
浏览器访问:http://localhost:3000
管理员面板--外部链接--新建模型连接

模型ID留空即可自动从/v1/models接口中获取,开启新对面默认选择DeepSeek-R1-Distill-Llama-70B模型

开启新对话






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5