扫码关注官方微信
扫码下载APP
此人很懒,什么也没有留下
DeepSeek-V3 官方报告解读
https://arxiv.org/abs/2412.19437
近年来,大型语言模型(LLM)发展迅速,不仅闭源模型(如 GPT-4o、Claude-3.5-Sonnet)表现强劲,开源模型也在不断进步,比如 DeepSeek 系列、LLaMA 系列等。DeepSeek-V3 的目标是进一步提升开源模型的能力,缩小与闭源模型的差距,同时保持训练成本的经济性。
DeepSeek-V3 的架构基于 Transformer 框架,但加入了一些创新设计,主要包括以下几个关键部分:
DeepSeek-V3 的训练分为三个阶段:预训练(Pre-Training)、长上下文扩展(Long Context Extension)和后训练(Post-Training)。训练成本总计 278.8 万 H800 GPU 小时,假设每小时 2 美元,费用约 557.6 万美元。
DeepSeek-V3 的训练效率得益于硬件、算法和框架的协同优化:
DeepSeek-V3 在多个基准测试上进行了评估,分为基模型(base model)和聊天模型(chat model)两部分。
DeepSeek-V3 是目前最强大的开源语言模型,特别是在代码和数学领域,性能接近甚至超过闭源模型(如 GPT-4o、Claude-3.5-Sonnet)。它的训练成本低(557.6 万美元),得益于 FP8 训练、通信优化和架构创新。DeepSeek 团队秉持开源精神,致力于推动 AGI(通用人工智能)发展,未来将继续优化架构、数据和推理能力,为开源社区带来更多突破。
使用道具 举报
本版积分规则 发表回复 回帖并转播 回帖后跳转到最后一页