链载Ai

标题: Qwen2.5介绍 [打印本页]

作者: 链载Ai    时间: 2025-12-2 11:30
标题: Qwen2.5介绍

2024.09.19 Ali 发布了Qwen2.5系列模型

TL;DR

模型性能

Qwen2.5

Qwen2.5-72B —— 一个拥有 720 亿参数的稠密 decoder-only 语言模型——与领先的开源模型如 Llama-3.1-70B 和 Mistral-Large-V2进行了基准测试

旗舰开源模型 Qwen2.5-72B 的基础语言模型性能达到了顶级水准,即便是在与 Llama-3-405B 这样更大的模型对比时也是如此。

将基于 API 的模型 Qwen-Plus 与领先的专有和开源模型进行了对比,包括 GPT4-o、Claude-3.5-Sonnet、Llama-3.1-405B 和 DeepSeek-V2.5。这一对比展示了 Qwen-Plus 在当前大型语言模型领域中的竞争地位。结果显示,Qwen-Plus 显著优于 DeepSeek-V2.5,并且在与 Llama-3.1-405B 的竞争中表现出了竞争力,尽管在某些方面仍不及 GPT4-o 和 Claude-3.5-Sonnet

Qwen2.5 的一个重要更新是重新引入了我们的 140 亿参数和 320 亿参数模型,即 Qwen2.5-14B 和 Qwen2.5-32B。这些模型在多样化的任务中超越了同等规模或更大规模的基线模型,例如 Phi-3.5-MoE-Instruct 和 Gemma2-27B-IT。 它们在模型大小和能力之间达到了最佳平衡,提供了匹配甚至超过一些较大模型的性能。此外,我们的基于 API 的模型 Qwen2.5-Turbo 相比这两个开源模型提供了极具竞争力的性能,同时提供了成本效益高且快速的服务。

近来也出现了明显的转向小型语言模型(SLMs)的趋势。尽管历史上小型语言模型(SLMs)的表现一直落后于大型语言模型(LLMs),但二者之间的性能差距正在迅速缩小。值得注意的是,即使是只有大约 30 亿参数的模型现在也能取得高度竞争力的结果。附带的图表显示了一个重要的趋势:在 MMLU 中得分超过 65 的新型模型正变得越来越小,这凸显了语言模型的知识密度增长速度加快。特别值得一提的是,我们的 Qwen2.5-3B 成为这一趋势的一个典型例子,它仅凭约 30 亿参数就实现了令人印象深刻的性能,展示了其相对于前辈模型的高效性和能力。

Qwen2.5-Coder

Qwen2.5-Math

How to Use

fromopenaiimportOpenAI
importos

client=OpenAI(
api_key=os.getenv("YOUR_API_KEY"),
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
)

completion=client.chat.completions.create(
model="qwen-plus-latest",
messages=[
{'role':'user','content':'Tellmesomethingaboutlargelanguagemodels.'}
]
)
print(completion.choices[0].message.content)

fromtransformersimportAutoModelForCausalLM,AutoTokenizer
model_name="Qwen/Qwen2.5-7B-Instruct"
model=AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer=AutoTokenizer.from_pretrained(model_name)
prompt="Givemeashortintroductiontolargelanguagemodel."
messages=[
{"role":"user","content":prompt}
]
text=tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs=tokenizer([text],return_tensors="pt").to(model.device)
generated_ids=model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids=[
output_ids[len(input_ids):]forinput_ids,output_idsinzip(model_inputs.input_ids,generated_ids)
]
response=tokenizer.batch_decode(generated_ids,skip_special_tokens=True)[0]

python-mvllm.entrypoints.openai.api_server\
--modelQwen/Qwen2.5-7B-Instruct

curlhttp://localhost:8000/v1/chat/completions-H"Content-Type:application/json"-d'{
"model":"Qwen/Qwen2.5-7B-Instruct",
"messages":[
{"role":"user","content":"Tellmesomethingaboutlargelanguagemodels."}
],
"temperature":0.7,
"top_p":0.8,
"repetition_penalty":1.05,
"max_tokens":512
}'






欢迎光临 链载Ai (http://www.lianzai.com/) Powered by Discuz! X3.5