返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

XTuner 微调 Llama3

[复制链接]
链载Ai 显示全部楼层 发表于 6 小时前 |阅读模式 打印 上一主题 下一主题


““[
{
"conversation": [
{
"system": "你是一个懂中文的小助手",
"input": "你是(请用中文回答)",
"output": "您好,我是SmartFlowAI,一个由 SmartFlowAI 打造的人工智能助手,请问有什么可以帮助您的吗?"
}
]
},
{
"conversation": [
{
"system": "你是一个懂中文的小助手",
"input": "你是(请用中文回答)",
"output": "您好,我是SmartFlowAI,一个由 SmartFlowAI 打造的人工智能助手,请问有什么可以帮助您的吗?"
}
]
}
]””

以上内容是一个 JSON 格式的数据结构,它包含了两个对象,每个对象中都有一个名为 "conversation" 的键,对应着一个包含对话信息的数组。

每个对话信息都是一个对象,包含三个键:"system"、"input" 和 "output"。

  • "system" 键表示对话信息的来源,可能是系统(即机器人)或者用户。

  • "input" 键表示用户输入的内容。

  • "output" 键表示系统(机器人)对用户输入的响应。

这段 JSON 数据的结构用于存储对话信息,可用于构建对话系统,记录用户和系统之间的交互。

“”xtuner train configs/assistant/llama3_8b_instruct_qlora_assistant.py --work-dir /root/llama3_pth

是一个命令行指令,用于启动一个名为 "xtuner" 的程序,并指定了一些参数。

  • "xtuner" 是要执行的程序的名称。

  • "train" 是 "xtuner" 程序的一个参数,指示程序执行训练任务。

  • "configs/assistant/llama3_8b_instruct_qlora_assistant.py" 是一个配置文件的路径,该文件用于指定模型的配置信息,包括模型的结构、超参数等。

  • "--work-dir" 是一个选项参数,用于指定工作目录,即模型训练过程中产生的文件(如日志、模型参数等)存放的位置。

  • "/root/llama3_pth" 是指定的工作目录的路径。

启动 "xtuner" 程序进行模型训练,使用指定的配置文件来配置模型,训练过程中的相关文件将保存在指定的工作目录中。

# Adapter PTH 转 HF 格式
xtuner convert pth_to_hf /root/llama3_pth/llama3_8b_instruct_qlora_assistant.py \
/root/llama3_pth/iter_500.pth \
/root/llama3_hf_adapter

# 模型合并
export MKL_SERVICE_FORCE_INTEL=1
xtuner convert merge /root/model/Meta-Llama-3-8B-Instruct \
/root/llama3_hf_adapter\
/root/llama3_hf_merged

Adapter PTH 转 HF 格式:

  • xtuner convert pth_to_hf: 这是一个命令行指令,表示要使用 "xtuner" 程序进行文件格式的转换,将 PyTorch 模型文件(.pth 格式)转换为 Hugging Face 模型文件(HF 格式)。

  • /root/llama3_pth/llama3_8b_instruct_qlora_assistant.py:是指定的 PyTorch 模型文件的路径。

  • /root/llama3_pth/iter_500.pth:是指定的 PyTorch 模型文件的权重文件路径。

  • /root/llama3_hf_adapter:是指定的转换后的 Hugging Face 模型文件的保存路径。

模型合并:

  • export MKL_SERVICE_FORCE_INTEL=1:这是一个环境变量设置,用于强制使用 Intel 的 MKL 服务。

  • xtuner convert merge:这是另一个 "xtuner" 程序的命令行指令,表示要进行模型合并操作。

  • /root/model/Meta-Llama-3-8B-Instruct:是指定要合并的第一个模型文件的路径。

  • /root/llama3_hf_adapter:是指定要合并的第二个模型文件的路径,这个路径是之前转换得到的 Hugging Face 模型文件的路径。

  • /root/llama3_hf_merged:是指定合并后的模型文件的保存路径。

用于将一个 PyTorch 模型文件转换为 Hugging Face 模型文件,并将其与另一个模型文件进行合并,最终得到一个新的模型文件。

streamlit run ~/Llama3-XTuner-CN/tools/internstudio_web_demo.py \
/root/llama3_hf_merged

启动 Streamlit 应用程序:

  • streamlit run:这是用于运行 Streamlit 应用程序的命令。

  • ~/Llama3-XTuner-CN/tools/internstudio_web_demo.py:是指定要运行的 Streamlit 应用程序的 Python 文件路径。

传递参数:

  • /root/llama3_hf_merged:这是通过命令行传递给 Streamlit 应用程序的参数。在这个上下文中,它可能是指定了一个模型文件或者其他必要的数据文件的路径。

使用 Streamlit 运行一个名为 "internstudio_web_demo.py" 的 Python 文件,并将 /root/llama3_hf_merged 作为参数传递给这个应用程序。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ