返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

Qwen,永远不会缺席!百万上下文模型开源

[复制链接]
链载Ai 显示全部楼层 发表于 昨天 17:07 |阅读模式 打印 上一主题 下一主题

今天,Qwen2.5-1M模型开源。

2个尺寸,7B & 14B。开源并且,并结合vllm,集成了稀疏注意力机制,推理速度提升3到7倍。

  • 技术报告地址:https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen2.5-1M/Qwen2_5_1M_Technical_Report.pdf
  • hf: https://huggingface.co/collections/Qwen/qwen25-1m-679325716327ec07860530ba

14B模型的大海捞针获得了全绿的成绩,7B仅少量错误

长度提升的同时,短序列的成绩依然保持优异!

训练策略: 逐步变长到256K。 然后使用长度外推,外推用到了DCA的策略,

DCA通过将大的相对位置,按chunk分组,映射为较小的值

最后是硬件依赖:

对于处理 1M 长度的序列:

  • Qwen2.5-7B-Instruct-1M:至少需要 120GB 显存(多 GPU 总和)。
  • Qwen2.5-14B-Instruct-1M:至少需要 320GB 显存(多 GPU 总和)。

如果 GPU 显存不满足以上要求,仍然可以使用 Qwen2.5-1M 进行较短任务的处理。

最后,祝大家新年快乐!



回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ