链载Ai

标题: 大模型部署该选谁?Ollama、vLLM 和 LMDeploy,各有千秋! [打印本页]

作者: 链载Ai    时间: 昨天 12:58
标题: 大模型部署该选谁?Ollama、vLLM 和 LMDeploy,各有千秋!

一、Ollama、vLLM 和 LMDeploy介绍

Ollama、vLLM 和 LMDeploy 都是与大语言模型相关的工具或框架,以下是它们的具体介绍:

Ollama


vLLM


LMDeploy

LMDeploy 是一个高效且友好的 LLMs 模型部署工具箱,功能涵盖了量化、推理和服务。上海一家企业开发。LMDeploy 工具箱提供以下核心功能:


二、Ollama部署大模型

ollama一般是在个人电脑、服务器显存等配置较低的环境中,部署量化后的大模型。部署简单,但大模型都是量化后的(阉割版),其效果不怎么好。所以,一般来说,企业中不会采用Ollama部署大模型。

下载和安装

下载地址:https://ollama.com/

服务器环境:支持windows,Linux,MacOS 。Linux服务器首推 Ubuntu 。

windows环境的部署方法请看文章《DeepSeek本地安装太简单了,人人都会操作》


三、vLLM部署大模型

vLLM和LMDeploy是企业级部署大模型最常用的。 社区都很活跃。vLLM对服务器显存版本有很高的要求。

官网文档:

https://docs.vllm.ai/en/latest/

中文文档(非官方):

https://vllm.hyper.ai/docs/getting-started/installation

cuda要求

vLLM contains pre-compiled C++ and CUDA (12.1) binaries.

软件环境要求


创建Python环境

#Createanewcondaenvironment.condacreate-nvllmpython=3.12-ycondaactivatevllm

安装vLLM

#InstallvLLMwithCUDA12.4.pipinstallvllm#Ifyouareusingpip.

运行本地大模型

1、下载NLP大模型。

推荐大模型 qwen,llama,glm 。我们拿qwen2.5-0.5b来做测试。使用python语言调用模塔社区的大模型。

大模型网址:

https://modelscope.cn/models/Qwen/Qwen2.5-0.5B-Instruct/

#pipinstallmodelscope#模型下载到本地。frommodelscopeimportsnapshot_downloadmodel_dir=snapshot_download('Qwen/Qwen2.5-0.5B-Instruct',cache_dir="/root/autodl-tmp/llm")

cache_dir一定要指定绝对路径。

2、vLLM运行大模型

sh命令:

vllmserve/root/autodl-tmp/llm/Qwen/Qwen2.5-0.5B-Instruct

测试:

fromopenaiimportOpenAIclient=OpenAI(base_url="http://localhost:8000/v1",api_key="token-abc123",)completion=client.chat.completions.create(model="/root/autodl-tmp/llm/Qwen/Qwen2.5-0.5B-Instruct",messages=[{"role":"user","content":"请使用java编写冒泡排序!"}])print(completion.choices[0].message)

其中vLLM的端口号是8000,model的值为模型的绝对路径。


四、LMDeploy部署大模型

LMDeploy是后起之秀,个人非常推荐这款软件。功能全面强大,符合国人使用习惯。对硬件的要求比vLLM低。

github地址:

https://github.com/InternLM/lmdeploy

官方文档:

https://lmdeploy.readthedocs.io/zh-cn/latest/

安装LMDeploy

condacreate-nlmdeploypython=3.8-ycondaactivatelmdeploypipinstalllmdeploy

运行本地大模型

sh命令:

pipinstallpartial_json_parser
lmdeployserveapi_server/root/autodl-tmp/llm/Qwen/Qwen2.5-0.5B-Instruct--server-port23333

--server-port 23333 指明端口号是23333 ,大模型路径要是绝对路径。

api_server 启动时的参数可以通过命令行lmdeploy serve api_server -h查看。 比如,--tp 设置张量并行,--session-len 设置推理的最大上下文窗口长度,--cache-max-entry-count 调整 k/v cache 的内存使用比例等等。


五、使用远程算力服务器

一般来说,我们都会使用算力云服务器进行部署大模型,以及训练、微调大模型。而本地的开发工具一般推荐使用VSCode 。VSCode有一个特强好用的端口转发功能,方便将服务器上的端口映射到本地。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5