|
在大模型时代,微调(Fine-tuning)是让预训练模型适应特定任务的关键步骤。然而,微调大模型通常需要大量的计算资源和复杂的配置,这让许多开发者望而却步。今天,我们将介绍一款高效、灵活且功能全面的微调工具库——XTuner,它能够帮助你在有限的资源下轻松微调大语言模型(LLM)和多模态图文模型(VLM)。 XTuner 是什么?XTuner 是由 InternLM 团队推出的一款轻量化大模型微调工具库,支持大语言模型和多模态图文模型的预训练及轻量级微调。它不仅高效、灵活,还具备丰富的功能,能够满足多样化的微调需求。
主要特点高效:XTuner 仅需 8GB 显存即可微调 7B 模型,并支持多节点跨设备微调 70B+ 大模型。通过自动分发高性能算子(如 FlashAttention、Triton kernels 等)加速训练,并兼容 DeepSpeed,轻松应用 ZeRO 优化策略,提升训练效率。 灵活:XTuner 兼容多种主流大语言模型(如 InternLM、Llama 2、ChatGLM 等)和多模态图文模型 LLaVA,支持预训练与微调。其数据管道设计灵活,兼容任意数据格式,支持 QLoRA、LoRA 及全量参数微调等多种算法,满足多样化需求。 全能:XTuner 支持增量预训练、指令微调与 Agent 微调,提供丰富的开源对话模板,便于与模型交互。训练所得模型可无缝接入部署工具库 LMDeploy、评测工具库 OpenCompass 及 VLMEvalKit,实现从训练到部署的全流程支持。
 XTuner 的安装XTuner 的安装非常简单,支持多种安装方式,满足不同用户的需求。 1. 直接安装包conda create --name xtuner-env python=3.10 -y conda activate xtuner-env
pip install -U xtuner #集成 DeepSpeed 安装 pip install -U 'xtuner[deepspeed]'
2. 通过源码安装git clone https://github.com/InternLM/xtuner.git cd xtuner pip install -e '.[all]'
常见问题处理CUDA_HOME does not exist, unable to compile CUDA op(s) 检查是否安装nvidia-cuda-toolkit,如果没有安装,可以使用以下命令安装: conda install -c nvidia cuda-compiler
libGL.so.1: cannot open shared object file: No such file or directory 可以通过以下命令解决: apt install libgl1-mesa-glx
XTuner 的简单使用XTuner 提供了丰富的功能,涵盖了从配置管理、模型微调到数据处理的全流程。以下是几个常用的操作示例: - 复制配置文件:
xtuner copy-cfg $CONFIG $SAVE_FILE
- 单卡微调:
xtuner train $CONFIG - 多卡微调:
NPROC_PER_NODE=$NGPUS NNODES=$NNODES NODE_RANK=$NODE_RANK PORT=$PORT ADDR=$ADDR xtuner dist_train $CONFIG $GPUS
将 .pth 模型转换为 Hugging Face 格式: xtuner convert pth_to_hf $CONFIG $PATH_TO_PTH_MODEL $SAVE_PATH_TO_HF_MODEL
合并 Adapter 到预训练模型: xtuner convert merge $LLM $ADAPTER $SAVE_PATH
使用 Hugging Face 模型与 Adapter 进行对话: xtuner chat $LLM --adapter $ADAPTER --prompt-template $PROMPT_TEMPLATE --system-template $SYSTEM_TEMPLATE
使用 Hugging Face 模型与 LLaVA 进行视觉对话: xtuner chat $LLM --llava $LLAVA --visual-encoder $VISUAL_ENCODER --image $IMAGE --prompt-template $PROMPT_TEMPLATE --system-template $SYSTEM_TEMPLATE
预处理 arxiv 数据集: xtuner preprocess arxiv $SRC_FILE $DST_FILE --start-date $START_DATE --categories $CATEGORIES
预处理 refcoco 数据集: xtuner preprocess refcoco --ann-path $RefCOCO_ANN_PATH --image-path $COCO_IMAGE_PATH --save-path $SAVE_PATH
总结XTuner 作为一款高效、灵活且功能全面的微调工具库,具有以下优势: - 高效:在 Llama2-7B 和 Llama2-70B 上的训练效率优于 LLaMA-Factory,尤其在序列长度增加时,更不容易出现 OOM 问题。
- 国产化适配:由 InternLM 推出,对国产化模型适应较好。
当然,XTuner 也有一些不足之处: - 无可视化界面:相比于 LLaMA-Factory,XTuner 仅支持命令行操作,缺乏可视化微调界面。
- 部署方式单一:目前官方只支持
pip安装,Docker 和 Kubernetes 的部署方式需要自行探索。
总的来说,XTuner 是一款非常值得尝试的微调工具库,尤其适合资源有限但又需要高效微调大模型的开发者。如果你正在寻找一款轻量化、高效的微调工具,XTuner 无疑是一个不错的选择。
|