|
思路:在AutoDL云服务器上安装LLaMA-Factory环境,然后微调Qwen3-4B大模型 一、环境准备 1)购买AutoDL云主机,3090显卡的即可(如果本地有GPU机器,请用自己的),我购买AutoDL时,选择了PyTorch 2)安装Anaconda(AutoDL上已默认安装miniconda3) Anacoda官网:https://www.anaconda.com/ 根据你自己的系统下载对应版本 安装完成后,打开终端(Linux/macOS)或Anaconda Prompt(Windows),输入以下命令创建一个新环境: (AutoDL上需要做以下操作) condacreate-nllama_factorypython=3.10condaactivatellama_factory 3)安装Git(AutoDL已安装) 4)安装cuda(AutoDL已安装) 参考: https://help.aliyun.com/zh/egs/user-guide/install-a-gpu-driver-on-a-gpu-accelerated-compute-optimized-linux-instance 二、下载LLaMA-Factory 需要从GitHub下载,使用git命令下载: gitclonehttps://github.com/hiyouga/LLaMA-Factory.gitcdLLaMA-Factory 三、安装依赖 在LLaMA-Factory目录下安装所需的Python包 pipinstall-e.[metrics]如果使用GPU,确保安装支持CUDA的PyTorch: pipinstalltorchtorchvisiontorchaudio--index-urlhttps://download.pytorch.org/whl/cu118说明:根据您的CUDA版本调整cu118,如11.7用cu117,如果你使用的是AutoDL,CUDA版本应该是128 四、下载Qwen3-4b大模型 在modelscope社区下载,安装魔搭(modelscope)模块 pipinstallmodelscope下载模型 mkdir-p/models/modelscopedownload--modelQwen/Qwen3-4B--local_dir/models/Qwen3-4B 五、准备数据集(alpaca格式) 步骤略,可以参考前面章节教你如何10分钟内批量制作上万条大模型微调数据集制作自己的数据集,然后将数据集文件放到LLaMA-Factory/data目录,例如my_data.json,然后编辑data/dataset_info.json,添加: "my_dataset":{"file_name":"alpaca_zh_demo.json"}说明:alpaca_zh_demo.json是llamafactory内置的一个测试数据集六、微调前的测试 微调之前可以先加载初始模型做推理测试 CUDA_VISIBLE_DEVICES=0llamafactory-cliwebchat\--model_name_or_path/models/Qwen3-4B\--templateqwen它会监听7860端口,如果使用AutoDL,还需要配置自定义服务: 1)首先要实名认证 2)自定义服务 控制台 --> 容器实例 --> 快捷工具 七、启动微调 微调之前,先把之前的llamafactory-cli命令结束掉,然后执行下面命令,将webui打开,监听7860端口: llamafactory-cliwebui浏览器访问http://ip:7860,AutoDL需要做自定义服务 八、模型推理与测试 微调后的模型可以用WebUI测试: CUDA_VISIBLE_DEVICES=0llamafactory-cliwebchat\--model_name_or_path/models/Qwen3-4B\--adapter_name_or_pathsaves/Qwen3-4B-Instruct/lora/my_finetune\--templateqwen浏览器访问:http://localhost:7860 如果web方式访问不方便,也可以终端形式: CUDA_VISIBLE_DEVICES=0llamafactory-clichat\--model_name_or_path/models/Qwen3-4B\--adapter_name_or_pathsaves/Qwen3-4B-Instruct/lora/my_finetune\--templateqwen 九、导出模型 如果需要分享模型,导出为Hugging Face格式: llamafactory-cliexport\--model_name_or_path/models/Qwen3-4B\--adapter_name_or_pathsaves/Qwen3-4B-Instruct/lora/my_finetune\--templateqwen\--finetuning_typelora\--export_dir/models/Qwen3-4B-Aminglinux 最后介绍下我的大模型课:我的运维大模型课上线了,目前还是预售期,有很大优惠。AI越来越成熟了,大模型技术也是强需求,大家一定要提前学一下。
|