返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

全面的大模型训练、推理工具包LLMBox来了!

[复制链接]
链载Ai 显示全部楼层 发表于 2025-12-2 09:47:54 |阅读模式 打印 上一主题 下一主题
在2023年3月,我们发表了大语言模型综述文章《A Survey of Large Language Models》,目前已经更新到第13个版本,自上线以来受到了不少读者的关注。在几周之前,我们完成了中文版书籍《大语言模型》的初稿。中文版书籍注重为大模型技术的入门读者提供讲解,力图展现一个整体的大模型技术框架和路线图。


英文综述链接:

https://arxiv.org/abs/2303.18223

中文书项目链接:

https://llmbook-zh.github.io



作为《大语言模型》综述和书籍的配套资源,我们开发了一个代码工具库LLMBox,供研究人员使用。LLMBox代码库包含统一的训练流程和全面的模型评估框架,旨在成为训练和使用大语言模型的一站式解决方案。




工具库链接:


https://github.com/RUCAIBox/LLMBox


LLMBox内部集成了许多实用的功能,实现了训练和使用阶段高度的灵活性和效率。比如在训练阶段,我们支持预训练、指令微调、对齐微调等训练策略,高效数据处理策略和统一的数据集混合等功能;在使用阶段,我们有全面的评测模型和数据集支持、常见评测设置、高效评测等功能。在接下来的一段时间,我们还会发出十余期LLMBox的详细使用教程,涵盖从入门到进阶的大模型训练和使用方法,以帮助读者加深实践经验。




训练部分
  • 多种训练策略:支持预训练(PT)、指令微调(SFT)、对齐微调(PPO 和DPO)
  • 全面的 SFT 数据集:支持 9 个 SFT 数据集
  • 词汇表合并:支持词表合并功能
  • 构建数据集:支持自定义多数据集混合、Self-Instruct 和 Evol-Instruct
  • 参数高效的微调:支持 LoRA 和 QLoRA
  • 高效训练:支持 FlashAttention 和 Deepspeed




使用部分
  • 全面评估:支持 53+常用数据集
  • 上下文学习:支持 KATE、GlobalE 和 APE 等 ICL 策略
  • 思维链:支持 base、least to most和 PAL 三种 CoT 策略
  • 评估方法:支持针对多选题或生成题的四种常见评估方法
  • 前缀缓存:通过缓存前缀的 past_key_value,可以将推理速度提高至多 6 倍
  • 高效推理:支持 vLLM 和 FlashAttention 支持
  • 量化:支持 bitsandbytes 和 GPTQ 量化



接下来的几期推送将先介绍评测和使用部分,从国内下载模型开始,到如何加速实验、量化推理,再到如何用LLMBox复现论文中常见的评测基线,包括CoT、ICL等策略。



然后是用LLMBox训练模型的部分,从训练模型前的高效训练配置、显存估计和词表扩充,到四种模型训练策略的详细使用指导(PT、SFT、PPO和DPO),其中还包括参数高效微调使用介绍,再到使用LLMBox进行大模型指令生成,包括Evol-instruct和Self-instruct两种策略。




如果在使用中遇到相应的问题或者不完善的功能,欢迎在GitHub Issue
(https://github.com/RUCAIBox/LLMBox/issues)中反馈!

LLMBox往期回顾


大模型综述出书了

2024-04-15



大模型综述11月最新升级

2023-11-27


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ