链载Ai

标题: Qwen2.5-Coder深夜开源炸场,Prompt编程的时代来了! [打印本页]

作者: 链载Ai    时间: 2 小时前
标题: Qwen2.5-Coder深夜开源炸场,Prompt编程的时代来了!
01

引 言



通义千问团队开源「强大」、「多样」、「实用」的 Qwen2.5-Coder 全系列,致力于持续推动 Open Code LLMs 的发展。




另外,Qwen2.5-Coder-32B-Instruct 的多编程语言的代码修复能力仍然令人惊喜,这将有助于用户理解和修改自己熟悉的编程语言,极大缓解陌生语言的学习成本。与 McEval 类似,MdEval 是多编程语言的代码修复基准,Qwen2.5-Coder-32B-Instruct 在 MdEval 上取得了 75.2 的分数,在所有开源模型中排名第一。




全面:丰富的模型尺寸

本次 Qwen2.5-Coder 开源了丰富的模型尺寸,共包含 0.5B/1.5B/3B/7B/14B/32B 六个尺寸,不仅能够满足开发者在不同资源场景下的需求,还能给研究社区提供良好的实验场。下表是详细的模型信息:


Models

Params

Non-Emb Params

Layers

Heads (KV)

Tie Embedding

Generation Length

License

Qwen2.5-Coder-0.5B

0.49B

0.36B

24

14 / 2

Yes

32K

Apache 2.0

Qwen2.5-Coder-1.5B

1.54B

1.31B

28

12 / 2

Yes

32K

Apache 2.0

Qwen2.5-Coder-3B

3.09B

2.77B

36

16 / 2

Yes

32K

Qwen Research

Qwen2.5-Coder-7B

7.61B

6.53B

28

28 / 4

No

128K

Apache 2.0

Qwen2.5-Coder-14B

14.7B

13.1B

48

40 / 8

No

128K

Apache 2.0

Qwen2.5-Coder-32B

32.5B

31.0B

64

40 / 8

No

128K

Apache 2.0


一直相信 Scaling Law 哲学。评估了不同尺寸的 Qwen2.5-Coder 在所有数据集上的表现,以验证 Scaling 在 Code LLMs 上的有效性。对于每一个尺寸,都开源了 Base 和 Instruct 模型,其中 Instruct 模型作是一个可以直接聊天的官方对齐模型,Base 模型作为开发者微调自己模型的基座。


下面是不同尺寸的 Instruct 模型表现:


模型尺寸和模型效果之间符合预期的存在正相关,并且 Qwen2.5-Coder 在所有尺寸下都取得了 SOTA 的表现,这鼓励着继续探索更大尺寸的 Coder。



模型许可


Qwen2.5-Coder 0.5B/1.5B/7B/14B/32B 采用 Apache 2.0 的许可,3B 为 Research Only许可;


02

模型链接和体验



Qwen2.5-Coder模型链接:

https://modelscope.cn/collections/Qwen25-Coder-9d375446e8f5814a


模型集合demo链接:

https://modelscope.cn/studios/Qwen/Qwen2.5-Coder-demo(插入小程序)


Artifacts体验链接:

https://modelscope.cn/studios/Qwen/Qwen2.5-Coder-Artifacts


03

模型推理



transformers: 单卡运行Qwen2.5-32B-Instrtuct量化模型。

from modelscope import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/Qwen2.5-Coder-32B-Instruct-GPTQ-Int4"
model = AutoModelForCausalLM.from_pretrained(model_name,torch_dtype="auto",device_map="auto")tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "write a quick sort algorithm."
messages = [{"role": "system", "content": "You are Qwen, created by Alibaba Cloud. You are a helpful assistant."},{"role": "user", "content": prompt}]text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True)model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(**model_inputs,max_new_tokens=512)generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]


显存占用:


Ollama:一行命令使用Ollama运行魔搭Qwen2.5-Coder GGUF模型

  1. 设置ollama下启用

ollamaserve
  1. ollama run ModelScope任意GGUF模型

ollamarunmodelscope.cn/Qwen/Qwen2.5-32B-Instruct-GGUF

在安装了Ollama的环境上(建议使用>=0.3.12版本),直接通过上面的命令行,就可以直接在本地运行 Qwen2.5-32B-Instruct-GGUF模型。


vLLM,推理加速

pipinstallvllm-UexportVLLM_USE_MODELSCOPE=TruevllmserveQwen/Qwen2.5-Coder-7B-Instruct

推理代码:

from openai import OpenAI
# Modify OpenAI's API key and API base to use vLLM's API server.openai_api_key = "EMPTY"openai_api_base = "http://localhost:8000/v1"client = OpenAI(api_key=openai_api_key,base_url=openai_api_base,)completion = client.completions.create(model="Qwen/Qwen2.5-Coder-1.5B-Instruct",prompt="San Francisco is a")print("Completion result:", completion)


04

模型微调




我们介绍使用ms-swift对qwen2.5-coder进行自我认知微调,并对微调后模型进行推理。swift开源地址:https://github.com/modelscope/ms-swift


自我认知数据集链接:https://modelscope.cn/datasets/swift/self-cognition

如果需要使用其他数据集进行微调,只需要修改 --dataset即可。自定义dataset支持传入本地路径、modelscope和huggingface中的dataset_id。文档可以查看:https://swift.readthedocs.io/zh-cn/latest/Instruction/%E8%87%AA%E5%AE%9A%E4%B9%89%E4%B8%8E%E6%8B%93%E5%B1%95.html#id3


在开始微调之前,请确保您的环境已正确安装:

#安装ms-swiftgitclonehttps://github.com/modelscope/ms-swift.gitcdswiftpipinstall-e.[llm]


微调脚本:

#Experimentalenvironment:A10,3090,V100,...#15GBGPUmemoryCUDA_VISIBLE_DEVICES=0swiftsft\--model_typeqwen2_5-coder-3b-instruct\--model_id_or_pathqwen/Qwen2.5-Coder-3B-Instruct\--datasetswift/self-cognition#500\AI-ModelScope/Magpie-Qwen2-Pro-200K-Chinese#500\AI-ModelScope/Magpie-Qwen2-Pro-200K-English#500\--logging_steps5\--max_length4096\--learning_rate1e-4\--output_diroutput\--lora_target_modulesALL\--model_name小黄'XiaoHuang'\--model_author魔搭ModelScope\--system'Youareahelpfulassistant.'


微调显存消耗:


微调后推理脚本如下,这里的ckpt_dir需要修改为训练生成的last checkpoint文件夹。

# Experimental environment: A10, 3090, V100, ...# 直接推理CUDA_VISIBLE_DEVICES=0 swift infer \--ckpt_dir output/qwen2_5-coder-3b-instruct/vx-xxx/checkpoint-xxx
# 使用vLLM进行推理加速CUDA_VISIBLE_DEVICES=0 swift infer \--ckpt_dir output/qwen2_5-coder-3b-instruct/vx-xxx/checkpoint-xxx \--infer_backendvllm--max_model_len8192--merge_loratrue


推理结果:


05

模型应用:Cursor,Artifacts 和 interpreter




实用的 Coder 一直是Qwen的愿景,为此本次探索了 Qwen2.5-Coder 在代码助手、 Artifacts 、interpreter场景下的实际表现。


Qwen2.5-Coder 遇到 Cursor:万能代码小助手

只能代码助手目前已经得到广泛的应用,但目前大多依赖闭源模型,希望 Qwen2.5-Coder 的出现能够为开发者提供一个友好且强大的选择。


配置Qwen2.5-Coder-32B-Instruct的openai兼容api(URL和API Key)



体验Qwen2.5-Coder强大的生成/编辑/补全能力吧!(Command+K)



Qwen2.5-Coder 遇到 Artifacts:prompt编程不是梦

Artifacts 是代码生成的重要应用之一,帮助用户创作一些适合可视化的作品,clone魔搭创空间,即可本地搭建一个Artifacts。

gitclonehttps://www.modelscope.cn/studios/Qwen/Qwen2.5-Coder-Artifacts.gitcdQwen2.5-Coder-Artifactspipinstall-rrequirements.txtpipinstallgradiopythonapp.py
SVG作画


Qwen2.5-Coder 遇到 Interpreter:AI操作电脑

在MAC安装环境

pipinstallopen-interpreter


进入Python环境:

frominterpreterimportinterpreterinterpreter.llm.api_base="YOUR_BASE_URL"interpreter.llm.api_key="YOUR_API_KEY"interpreter.llm.model="openai/Qwen-Coder-32B-Instruct"interpreter.chat("Canyousetmysystemtolightmode?")






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5