链载Ai

标题: XTuner 微调 Llama3 [打印本页]

作者: 链载Ai    时间: 6 小时前
标题: XTuner 微调 Llama3


““[
{
"conversation": [
{
"system": "你是一个懂中文的小助手",
"input": "你是(请用中文回答)",
"output": "您好,我是SmartFlowAI,一个由 SmartFlowAI 打造的人工智能助手,请问有什么可以帮助您的吗?"
}
]
},
{
"conversation": [
{
"system": "你是一个懂中文的小助手",
"input": "你是(请用中文回答)",
"output": "您好,我是SmartFlowAI,一个由 SmartFlowAI 打造的人工智能助手,请问有什么可以帮助您的吗?"
}
]
}
]””

以上内容是一个 JSON 格式的数据结构,它包含了两个对象,每个对象中都有一个名为 "conversation" 的键,对应着一个包含对话信息的数组。

每个对话信息都是一个对象,包含三个键:"system"、"input" 和 "output"。

这段 JSON 数据的结构用于存储对话信息,可用于构建对话系统,记录用户和系统之间的交互。

“”xtuner train configs/assistant/llama3_8b_instruct_qlora_assistant.py --work-dir /root/llama3_pth

是一个命令行指令,用于启动一个名为 "xtuner" 的程序,并指定了一些参数。

启动 "xtuner" 程序进行模型训练,使用指定的配置文件来配置模型,训练过程中的相关文件将保存在指定的工作目录中。

# Adapter PTH 转 HF 格式
xtuner convert pth_to_hf /root/llama3_pth/llama3_8b_instruct_qlora_assistant.py \
/root/llama3_pth/iter_500.pth \
/root/llama3_hf_adapter

# 模型合并
export MKL_SERVICE_FORCE_INTEL=1
xtuner convert merge /root/model/Meta-Llama-3-8B-Instruct \
/root/llama3_hf_adapter\
/root/llama3_hf_merged

Adapter PTH 转 HF 格式:

模型合并:

用于将一个 PyTorch 模型文件转换为 Hugging Face 模型文件,并将其与另一个模型文件进行合并,最终得到一个新的模型文件。

streamlit run ~/Llama3-XTuner-CN/tools/internstudio_web_demo.py \
/root/llama3_hf_merged

启动 Streamlit 应用程序:

传递参数:

使用 Streamlit 运行一个名为 "internstudio_web_demo.py" 的 Python 文件,并将 /root/llama3_hf_merged 作为参数传递给这个应用程序。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5