链载Ai

标题: 手把手教你用LLaMA-Factory微调Qwen3大模型 [打印本页]

作者: 链载Ai    时间: 3 小时前
标题: 手把手教你用LLaMA-Factory微调Qwen3大模型

思路:在AutoDL云服务器上安装LLaMA-Factory环境,然后微调Qwen3-4B大模型

一、环境准备

1)购买AutoDL云主机,3090显卡的即可(如果本地有GPU机器,请用自己的),我购买AutoDL时,选择了PyTorch

2)安装Anaconda(AutoDL上已默认安装miniconda3)

Anacoda官网:https://www.anaconda.com/

根据你自己的系统下载对应版本

安装完成后,打开终端(Linux/macOS)或Anaconda Prompt(Windows),输入以下命令创建一个新环境:

(AutoDL上需要做以下操作)

condacreate-nllama_factorypython=3.10condaactivatellama_factory

3)安装Git(AutoDL已安装)

4)安装cuda(AutoDL已安装)

参考: https://help.aliyun.com/zh/egs/user-guide/install-a-gpu-driver-on-a-gpu-accelerated-compute-optimized-linux-instance

二、下载LLaMA-Factory

需要从GitHub下载,使用git命令下载:

gitclonehttps://github.com/hiyouga/LLaMA-Factory.gitcdLLaMA-Factory

三、安装依赖

在LLaMA-Factory目录下安装所需的Python包

pipinstall-e.[metrics]如果使用GPU,确保安装支持CUDA的PyTorch:
pipinstalltorchtorchvisiontorchaudio--index-urlhttps://download.pytorch.org/whl/cu118说明:根据您的CUDA版本调整cu118,如11.7用cu117,如果你使用的是AutoDL,CUDA版本应该是128

四、下载Qwen3-4b大模型

在modelscope社区下载,安装魔搭(modelscope)模块

pipinstallmodelscope下载模型
mkdir-p/models/modelscopedownload--modelQwen/Qwen3-4B--local_dir/models/Qwen3-4B

五、准备数据集(alpaca格式)

步骤略,可以参考前面章节教你如何10分钟内批量制作上万条大模型微调数据集制作自己的数据集,然后将数据集文件放到LLaMA-Factory/data目录,例如my_data.json,然后编辑data/dataset_info.json,添加:

"my_dataset":{"file_name":"alpaca_zh_demo.json"}说明:alpaca_zh_demo.json是llamafactory内置的一个测试数据集

六、微调前的测试

微调之前可以先加载初始模型做推理测试

CUDA_VISIBLE_DEVICES=0llamafactory-cliwebchat\--model_name_or_path/models/Qwen3-4B\--templateqwen它会监听7860端口,如果使用AutoDL,还需要配置自定义服务:

1)首先要实名认证

2)自定义服务

控制台 --> 容器实例 --> 快捷工具

七、启动微调

微调之前,先把之前的llamafactory-cli命令结束掉,然后执行下面命令,将webui打开,监听7860端口:

llamafactory-cliwebui浏览器访问http://ip:7860,AutoDL需要做自定义服务

八、模型推理与测试

微调后的模型可以用WebUI测试:

CUDA_VISIBLE_DEVICES=0llamafactory-cliwebchat\--model_name_or_path/models/Qwen3-4B\--adapter_name_or_pathsaves/Qwen3-4B-Instruct/lora/my_finetune\--templateqwen浏览器访问:http://localhost:7860

如果web方式访问不方便,也可以终端形式:

CUDA_VISIBLE_DEVICES=0llamafactory-clichat\--model_name_or_path/models/Qwen3-4B\--adapter_name_or_pathsaves/Qwen3-4B-Instruct/lora/my_finetune\--templateqwen

九、导出模型

如果需要分享模型,导出为Hugging Face格式:

llamafactory-cliexport\--model_name_or_path/models/Qwen3-4B\--adapter_name_or_pathsaves/Qwen3-4B-Instruct/lora/my_finetune\--templateqwen\--finetuning_typelora\--export_dir/models/Qwen3-4B-Aminglinux

最后介绍下我的大模型课:我的运维大模型课上线了,目前还是预售期,有很大优惠。AI越来越成熟了,大模型技术也是强需求,大家一定要提前学一下。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5