返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

手把手教你用LLaMA-Factory微调Qwen3大模型

[复制链接]
链载Ai 显示全部楼层 发表于 3 小时前 |阅读模式 打印 上一主题 下一主题

思路:在AutoDL云服务器上安装LLaMA-Factory环境,然后微调Qwen3-4B大模型

一、环境准备

1)购买AutoDL云主机,3090显卡的即可(如果本地有GPU机器,请用自己的),我购买AutoDL时,选择了PyTorch

2)安装Anaconda(AutoDL上已默认安装miniconda3)

Anacoda官网:https://www.anaconda.com/

根据你自己的系统下载对应版本

安装完成后,打开终端(Linux/macOS)或Anaconda Prompt(Windows),输入以下命令创建一个新环境:

(AutoDL上需要做以下操作)

condacreate-nllama_factorypython=3.10condaactivatellama_factory

3)安装Git(AutoDL已安装)

  • Linux:在终端输入:

    sudoapt-getinstallgit

  • Windows:下载并安装Git for Windows

  • macOS:在终端输入:

    brewinstallgit(需先安装Homebrew)

4)安装cuda(AutoDL已安装)

参考: https://help.aliyun.com/zh/egs/user-guide/install-a-gpu-driver-on-a-gpu-accelerated-compute-optimized-linux-instance

二、下载LLaMA-Factory

需要从GitHub下载,使用git命令下载:

gitclonehttps://github.com/hiyouga/LLaMA-Factory.gitcdLLaMA-Factory

三、安装依赖

在LLaMA-Factory目录下安装所需的Python包

pipinstall-e.[metrics]如果使用GPU,确保安装支持CUDA的PyTorch:
pipinstalltorchtorchvisiontorchaudio--index-urlhttps://download.pytorch.org/whl/cu118说明:根据您的CUDA版本调整cu118,如11.7用cu117,如果你使用的是AutoDL,CUDA版本应该是128

四、下载Qwen3-4b大模型

在modelscope社区下载,安装魔搭(modelscope)模块

pipinstallmodelscope下载模型
mkdir-p/models/modelscopedownload--modelQwen/Qwen3-4B--local_dir/models/Qwen3-4B

五、准备数据集(alpaca格式)

步骤略,可以参考前面章节教你如何10分钟内批量制作上万条大模型微调数据集制作自己的数据集,然后将数据集文件放到LLaMA-Factory/data目录,例如my_data.json,然后编辑data/dataset_info.json,添加:

"my_dataset":{"file_name":"alpaca_zh_demo.json"}说明:alpaca_zh_demo.json是llamafactory内置的一个测试数据集

六、微调前的测试

微调之前可以先加载初始模型做推理测试

CUDA_VISIBLE_DEVICES=0llamafactory-cliwebchat\--model_name_or_path/models/Qwen3-4B\--templateqwen它会监听7860端口,如果使用AutoDL,还需要配置自定义服务:

1)首先要实名认证

2)自定义服务

控制台 --> 容器实例 --> 快捷工具

七、启动微调

微调之前,先把之前的llamafactory-cli命令结束掉,然后执行下面命令,将webui打开,监听7860端口:

llamafactory-cliwebui浏览器访问http://ip:7860,AutoDL需要做自定义服务

八、模型推理与测试

微调后的模型可以用WebUI测试:

CUDA_VISIBLE_DEVICES=0llamafactory-cliwebchat\--model_name_or_path/models/Qwen3-4B\--adapter_name_or_pathsaves/Qwen3-4B-Instruct/lora/my_finetune\--templateqwen浏览器访问:http://localhost:7860

如果web方式访问不方便,也可以终端形式:

CUDA_VISIBLE_DEVICES=0llamafactory-clichat\--model_name_or_path/models/Qwen3-4B\--adapter_name_or_pathsaves/Qwen3-4B-Instruct/lora/my_finetune\--templateqwen

九、导出模型

如果需要分享模型,导出为Hugging Face格式:

llamafactory-cliexport\--model_name_or_path/models/Qwen3-4B\--adapter_name_or_pathsaves/Qwen3-4B-Instruct/lora/my_finetune\--templateqwen\--finetuning_typelora\--export_dir/models/Qwen3-4B-Aminglinux

最后介绍下我的大模型课:我的运维大模型课上线了,目前还是预售期,有很大优惠。AI越来越成熟了,大模型技术也是强需求,大家一定要提前学一下。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ