返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

一个易于使用的大规模语言模型微调框架 LLaMA Factory

[复制链接]
链载Ai 显示全部楼层 发表于 1 小时前 |阅读模式 打印 上一主题 下一主题

项目特色

  • 多种模型:LLaMA、Mistral、Mixtral-MoE、Qwen、Yi、Gemma、Baichuan、ChatGLM、Phi 等等。

  • 集成方法:(增量)预训练、指令监督微调、奖励模型训练、PPO 训练、DPO 训练和 ORPO 训练。

  • 多种精度:32 比特全参数微调、16 比特冻结微调、16 比特 LoRA 微调和基于 AQLM/AWQ/GPTQ/LLM.int8 的 2/4/8 比特 QLoRA 微调。

  • 先进算法:GaLore、BAdam、DoRA、LongLoRA、LLaMA Pro、LoRA+、LoftQ 和 Agent 微调。

  • 实用技巧:FlashAttention-2、Unsloth、RoPE scaling、NEFTune 和 rsLoRA。

  • 实验监控:LlamaBoard、TensorBoard、Wandb、MLflow 等等。

  • 极速推理:基于 vLLM 的 OpenAI 风格 API、浏览器界面和命令行接口。

性能指标

与 ChatGLM 官方的P-Tuning微调相比,LLaMA Factory 的 LoRA 微调提供了3.7 倍的加速比,同时在广告文案生成任务上取得了更高的 Rouge 分数。结合 4 比特量化技术,LLaMA Factory 的 QLoRA 微调进一步降低了 GPU 显存消耗。



ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", "Source Han Sans CN", sans-serif, "Apple Color Emoji", "Segoe UI Emoji";font-size: 15px;line-height: 1.75;color: rgb(5, 7, 59);letter-spacing: normal;text-align: start;text-wrap: wrap;">LLaMA Factory 介绍

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", "Source Han Sans CN", sans-serif, "Apple Color Emoji", "Segoe UI Emoji";font-size: 15px;line-height: 1.75;color: rgb(5, 7, 59);letter-spacing: normal;text-align: start;text-wrap: wrap;">LLaMA Factory 是一个易于使用的大规模语言模型(LLM)微调框架,支持包括LLaMA、BLOOM、Mistral、Baichuan、Qwen 和 ChatGLM 在内的多种模型。该框架旨在简化大型语言模型的微调过程,提供了一套完整的工具和接口,使用户能够轻松地对预训练的模型进行定制化的训练和调整,以适应特定的应用场景。此外,LLaMA Factory 支持多种微调技术,包括(增量)预训练、指令监督微调、奖励模型训练等,并提供多种训练精度选择,如32比特全参数微调、16比特冻结微调等。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", "Source Han Sans CN", sans-serif, "Apple Color Emoji", "Segoe UI Emoji";font-size: 15px;line-height: 1.75;color: rgb(5, 7, 59);letter-spacing: normal;text-align: start;text-wrap: wrap;">P-Tuning 介绍

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", "Source Han Sans CN", sans-serif, "Apple Color Emoji", "Segoe UI Emoji";font-size: 15px;line-height: 1.75;color: rgb(5, 7, 59);letter-spacing: normal;text-align: start;text-wrap: wrap;">P-Tuning 是一种基于预训练模型的高效微调方法。它通过调整预训练模型中参数的更新率来优化模型的性能。在微调过程中,P-Tuning 会根据每个参数的重要性及其在预训练模型中的角色来调整其更新率,以实现更精确的模型调整。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", "Source Han Sans CN", sans-serif, "Apple Color Emoji", "Segoe UI Emoji";font-size: 15px;line-height: 1.75;color: rgb(5, 7, 59);letter-spacing: normal;text-align: start;text-wrap: wrap;">LLaMA Factory 的 LoRA 微调与 ChatGLM 官方的 P-Tuning 微调对比

    ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", "Source Han Sans CN", sans-serif, "Apple Color Emoji", "Segoe UI Emoji";font-size: 15px;line-height: 1.75;color: rgb(5, 7, 59);letter-spacing: normal;text-align: start;text-wrap: wrap;" class="list-paddingleft-1">
  1. 性能提升:与ChatGLM官方的P-Tuning微调相比,LLaMA Factory的LoRA微调在广告文案生成任务上取得了更高的Rouge分数,这表明LoRA微调在文本生成任务上具有更优越的性能。

  2. 训练速度:LLaMA Factory的LoRA微调提供了3.7倍的加速比,这意味着使用LoRA微调可以更快地完成模型的训练过程,从而提高工作效率。

  3. GPU显存消耗:结合4比特量化技术,LLaMA Factory的QLoRA微调进一步降低了GPU显存消耗。这使得在资源受限的环境下也能进行有效的模型微调。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", "Source Han Sans CN", sans-serif, "Apple Color Emoji", "Segoe UI Emoji";font-size: 15px;line-height: 1.75;color: rgb(5, 7, 59);letter-spacing: normal;text-align: start;text-wrap: wrap;">综上所述,LLaMA Factory的LoRA微调在性能、训练速度和GPU显存消耗方面都表现出优于ChatGLM官方的P-Tuning微调的特点。这使得LLaMA Factory成为一个强大且高效的工具,用于对大型语言模型进行微调以适应特定的应用场景。



回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ