在人工智能领域,自然语言处理(NLP)一直是研究的热点之一。随着深度学习技术的不断发展,大型预训练语言模型(如Qwen2-7B-Instruct)在理解与生成自然语言方面取得了显著的进展。然而,这些模型往往需要大量的计算资源和数据来进行微调,以适应特定的应用场景。Lora微调技术作为一种高效的模型优化手段,为解决这一问题提供了新的思路。本文将深入探讨Lora微调技术在Qwen2-7B-Instruct模型上的应用,旨在为读者提供一种高效、低成本的模型定制化方法。
Lora微调是一种基于低秩矩阵的微调方法,它通过在模型的权重矩阵中引入低秩结构来减少参数数量,从而降低模型的存储和计算需求。这种方法在保持模型性能的同时,显著提高了模型的灵活性和适应性。
Qwen2-7B-Instruct,一款精心设计的高级预训练语言模型,拥有70亿参数,专注于提升对指令性文本的精准理解和高效生成。它在自然语言处理(NLP)的多个专业领域中,如文本摘要、情感分析、机器翻译等,均展现出了卓越的处理能力和适应性。Qwen2-7B-Instruct的先进性能不仅体现在其对语言的深度解析上,更在于其能够快速、准确地执行和回应复杂的语言指令,为专业级的语言任务提供了强大的支持和解决方案。
Lora微调通过在模型的权重矩阵中引入低秩矩阵,实现了对模型的轻量级微调。具体来说,它将权重矩阵分解为两个较小的矩阵的乘积,这两个矩阵分别对应于原始权重矩阵的行和列。
通过在Qwen2-7B-Instruct模型上实施Lora微调技术,我们能够针对特定指令性文本任务进行精准优化,显著提升模型在这些任务上的表现力和准确性。这种微调方法不仅增强了模型对专业指令的响应能力,还进一步拓宽了其在复杂语言处理场景中的应用潜力。
在自动摘要生成任务中,微调后的模型能够更好地理解文本内容,生成更加精炼和准确的摘要。
对于需要执行复杂指令的应用,如智能家居控制,微调后的模型能够更准确地解析和执行用户的指令。
介绍如何在Python环境中搭建Lora微调所需的环境,包括必要的库和依赖。
python-mpipinstall--upgradepip# 更换 pypi 源加速库的安装pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simplepip install modelscope==1.9.5pip install "transformers>=4.39.0"pip install streamlit==1.24.0pip install sentencepiece==0.1.99pip install accelerate==0.27pip install transformers_stream_generator==0.0.4pip install datasets==2.18.0pip install peft==0.10.0# 可选MAX_JOBS=8 pip install flash-attn --no-build-isolation
3.模型下载
使用 modelscope 中的 snapshot_download 函数下载模型,第一个参数为模型名称,参数 cache_dir 为模型的下载路径。
importtorchfrommodelscopeimportsnapshot_download,AutoModel,AutoTokenizerimportosmodel_dir=snapshot_download('qwen/Qwen2-7B-Instruct',cache_dir='/root/autodl-tmp',revision='master')4.导入依赖包
fromdatasetsimportDatasetimportpandasaspdfromtransformersimportAutoTokenizer,AutoModelForCausalLM,DataCollatorForSeq2Seq,TrainingArguments,Trainer,GenerationConfig
5.数据集准备
{
"instruction":"回答以下用户问题,仅输出答案。",
"input":"1+1等于几?",
"output":"2"
}
其中,instruction是用户指令,告知模型其需要完成的任务;input是用户输入,是完成用户指令所必须的输入内容;output是模型应该给出的输出。即我们的核心训练目标是让模型具有理解并遵循用户指令的能力。因此,在指令集构建时,我们应针对我们的目标任务,针对性构建任务指令集。下面是对话指令集部分内容:
6.数据加载查看
# 将JSON文件转换为CSV文件df = pd.read_json('../dataset/huanhuan.json')ds = Dataset.from_pandas(df)
ds[:5]
{'instruction':['小姐,别的秀女都在求中选,唯有咱们小姐想被撂牌子,菩萨一定记得真真儿的——','这个温太医啊,也是古怪,谁不知太医不得皇命不能为皇族以外的人请脉诊病,他倒好,十天半月便往咱们府里跑。','嬛妹妹,刚刚我去府上请脉,听甄伯母说你来这里进香了。','嬛妹妹,我虽是一介御医,俸禄微薄,可是我保证会一生一世对你好,疼爱你,保护你,永远事事以你为重。本来没半月一次到府上去请脉,能够偶尔见一次妹妹的笑靥,已经心满意足了,可谁知——而且我也知道,妹妹心里是不愿意去殿选的。','实初虽然唐突了妹妹,却是真心实意地希望妹妹不要去应选,这不仅仅是因为我心里一直把妹妹当成……其实更是因为甄伯父曾经救过家父的性命。'],'input':['','','','',''],'output':['嘘——都说许愿说破是不灵的。','你们俩话太多了,我该和温太医要一剂药,好好治治你们。','出来走走,也是散心。','实初哥哥这么说,就枉顾我们一直以来的兄妹情谊了,嬛儿没有哥哥,一直把你当作自己的亲哥哥一样看待,自然相信哥哥会待妹妹好的——自然了,以后有了嫂子,你也会对嫂子更好。','我们两家是世交,昔年恩义不过是父亲随手之劳,不必挂怀。']}7.加载分词器模型
加载本地的Qwen2-7B-Instruct模型
tokenizer=AutoTokenizer.from_pretrained('/root/autodl-tmp/qwen/Qwen2-7B-Instruct',use_fast=False,trust_remote_code=True)tokenizer输出:
defprocess_func(example):MAX_LENGTH=384#Llama分词器会将一个中文字切分为多个token,因此需要放开一些最大长度,保证数据的完整性input_ids,attention_mask,labels=[],[],[]instruction=tokenizer(f"<|im_start|>system\n现在你要扮演皇帝身边的女人--甄嬛<|im_end|>\n<|im_start|>user\n{example['instruction']+example['input']}<|im_end|>\n<|im_start|>assistant\n",add_special_tokens=False)#add_special_tokens不在开头加special_tokensresponse=tokenizer(f"{example['output']}",add_special_tokens=False)input_ids=instruction["input_ids"]+response["input_ids"]+[tokenizer.pad_token_id]attention_mask=instruction["attention_mask"]+response["attention_mask"]+[1]#因为eostoken咱们也是要关注的所以补充为1labels=[-100]*len(instruction["input_ids"])+response["input_ids"]+[tokenizer.pad_token_id]iflen(input_ids)>MAX_LENGTH:#做一个截断input_ids=input_ids[:MAX_LENGTH]attention_mask=attention_mask[:MAX_LENGTH]labels=labels[:MAX_LENGTH]return{"input_ids":input_ids,"attention_mask":attention_mask,"labels":labels}补充说明:Qwen2采用的Prompt Template格式如下
<|im_start|>systemYouareahelpfulassistant.<|im_end|><|im_start|>user你是谁?<|im_end|><|im_start|>assistant我是一个有用的助手。<|im_end|>
2)数据集处理
tokenized_id=ds.map(process_func,remove_columns=ds.column_names)tokenized_id
Dataset({features:['input_ids','attention_mask','labels'],num_rows:3729})3)查看input_ids数据格式是否正确
tokenizer.decode(tokenized_id[0]['input_ids'])
'<|im_start|>system\n现在你要扮演皇帝身边的女人--甄嬛<|im_end|>\n<|im_start|>user\n小姐,别的秀女都在求中选,唯有咱们小姐想被撂牌子,菩萨一定记得真真儿的——<|im_end|>\n<|im_start|>assistant\n嘘——都说许愿说破是不灵的。<|endoftext|>'
4)labels查看
tokenizer.decode(list(filter(lambdax:x!=-100,tokenized_id[1]["labels"])))
输出:
'你们俩话太多了,我该和温太医要一剂药,好好治治你们。<|endoftext|>'
加载本地的Qwen2-7B-Instruct模型
importtorchmodel=AutoModelForCausalLM.from_pretrained('/root/autodl-tmp/qwen/Qwen2-7B-Instruct',device_map="auto",torch_dtype=torch.bfloat16)modelLoadingcheckpointshards:0%||0/4[00:00<?,?it/s][9]wen2ForCausalLM((model)
wen2Model((embed_tokens):Embedding(152064,3584)(layers):ModuleList((0-27):28xQwen2DecoderLayer((self_attn)
wen2SdpaAttention((q_proj)
inear(in_features=3584,out_features=3584,bias=True)(k_proj)
inear(in_features=3584,out_features=512,bias=True)(v_proj)
inear(in_features=3584,out_features=512,bias=True)(o_proj)
inear(in_features=3584,out_features=3584,bias=False)(rotary_emb)
wen2RotaryEmbedding())(mlp)
wen2MLP((gate_proj)
inear(in_features=3584,out_features=18944,bias=False)(up_proj)
inear(in_features=3584,out_features=18944,bias=False)(down_proj)
inear(in_features=18944,out_features=3584,bias=False)(act_fn):SiLU())(input_layernorm)
wen2RMSNorm()(post_attention_layernorm)
wen2RMSNorm()))(norm)
wen2RMSNorm())(lm_head)
inear(in_features=3584,out_features=152064,bias=False))
model.enable_input_require_grads()#开启梯度检查点时,要执行该方法model.dtype#查看精度
输出:
torch.bfloat16
配置说明:
frompeftimportLoraConfig,TaskType,get_peft_modelconfig=LoraConfig(task_type=TaskType.CAUSAL_LM,target_modules=["q_proj","k_proj","v_proj","o_proj","gate_proj","up_proj","down_proj"],inference_mode=False,#训练模式r=8,#Lora秩lora_alpha=32,#Loraalaph,具体作用参见Lora原理lora_dropout=0.1#Dropout比例)config
LoraConfig(peft_type=<eftType.LORA:'LORA'>,auto_mapping=None,base_model_name_or_path=None,revision=None,task_type=<TaskType.CAUSAL_LM:'CAUSAL_LM'>,inference_mode=False,r=8,target_modules={'o_proj','down_proj','q_proj','gate_proj','up_proj','k_proj','v_proj'},lora_alpha=32,lora_dropout=0.1,fan_in_fan_out=False,bias='none',use_rslora=False,modules_to_save=None,init_lora_weights=True,layers_to_transform=None,layers_pattern=None,rank_pattern={},alpha_pattern={},megatron_config=None,megatron_core='megatron.core',loftq_config={},use_dora=False,layer_replication=None)
加载lora配置
model=get_peft_model(model,config)config
LoraConfig(peft_type=<eftType.LORA:'LORA'>,auto_mapping=None,base_model_name_or_path='/root/autodl-tmp/qwen/Qwen2-7B-Instruct',revision=None,task_type=<TaskType.CAUSAL_LM:'CAUSAL_LM'>,inference_mode=False,r=8,target_modules={'o_proj','down_proj','q_proj','gate_proj','up_proj','k_proj','v_proj'},lora_alpha=32,lora_dropout=0.1,fan_in_fan_out=False,bias='none',use_rslora=False,modules_to_save=None,init_lora_weights=True,layers_to_transform=None,layers_pattern=None,rank_pattern={},alpha_pattern={},megatron_config=None,megatron_core='megatron.core',loftq_config={},use_dora=False,layer_replication=None)
model.print_trainable_parameters()
args=TrainingArguments(output_dir="./output/Qwen2_7B_instruct_lora",per_device_train_batch_size=4,gradient_accumulation_steps=4,logging_steps=10,num_train_epochs=3,save_steps=10,#为了快速演示,这里设置10,建议你设置成100learning_rate=1e-4,save_on_each_node=True,gradient_checkpointing=True)
trainer=Trainer(model=model,args=args,train_dataset=tokenized_id,data_collator=DataCollatorForSeq2Seq(tokenizer=tokenizer,padding=True),)trainer.train()
训练效果:
将训练后的lora权重加载到原来的模型中,形成新的模型
fromtransformersimportAutoModelForCausalLM,AutoTokenizerimporttorchfrompeftimportPeftModelmode_path='/root/autodl-tmp/qwen/Qwen2-7B-Instruct/'lora_path='./output/Qwen2_instruct_lora/checkpoint-10'#这里改称你的lora输出对应checkpoint地址#加载tokenizertokenizer=AutoTokenizer.from_pretrained(mode_path,trust_remote_code=True)#加载模型model=AutoModelForCausalLM.from_pretrained(mode_path,device_map="auto",torch_dtype=torch.bfloat16,trust_remote_code=True).eval()#加载lora权重model=PeftModel.from_pretrained(model,model_id=lora_path)
14.模型推理
prompt="你是谁?"messages=[#{"role":"system","content":"现在你要扮演皇帝身边的女人--甄嬛"},{"role":"user","content":"假设你是皇帝身边的女人--甄嬛。"},{"role":"user","content":prompt}]inputs=tokenizer.apply_chat_template(messages,add_generation_prompt=True,tokenize=True,return_tensors="pt",return_dict=True).to('cuda')gen_kwargs={"max_length":2500,"do_sample":True,"top_k":1}withtorch.no_grad()
utputs=model.generate(**inputs,**gen_kwargs)outputs=outputs[:,inputs['input_ids'].shape[1]:]print(tokenizer.decode(outputs[0],skip_special_tokens=True))输出:
我是甄嬛,家父是大理寺少卿甄远道。
结语
Lora微调技术为大型预训练语言模型的定制化提供了一种高效、低成本的解决方案。通过本文的介绍和代码实践,读者可以更好地理解Lora微调的原理和应用,将其应用于Qwen2-7B-Instruct模型,以满足特定场景的需求。随着技术的不断进步,我们期待Lora微调能够在更广泛的领域发挥更大的作用。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |