链载Ai
标题:
1.5B小模型逆袭!DeepScaleR如何用强化学习颠覆AI数学竞赛规则
[打印本页]
作者:
链载Ai
时间:
2 小时前
标题:
1.5B小模型逆袭!DeepScaleR如何用强化学习颠覆AI数学竞赛规则
大规模模型的训练常常需要庞大的计算资源和高昂的成本。然而,近日,来自加州大学伯克利分校的研究团队以一款1.5B参数的DeepScaleR模型,通过强化学习(RL)微调,成功超越了OpenAI的o1-preview,在AIME 2024等数学竞赛中展现出了强大的推理能力。这个令人震撼的突破让AI领域再次掀起了对小型模型的热议。
突破性成就:1.5B小模型挑战大模型
在AI界,许多人认为,要在数学推理和复杂任务中取得优异成绩,只有大规模的预训练模型才能做到。然而,伯克利团队的研究打破了这一常规,他们通过精巧的训练方法和高质量的数学数据集,在
1.5B参数的小模型
上,成功应用强化学习提升推理能力,超越了OpenAI的o1-preview。
这一成果证明了:并非越大越好,在特定领域内,小模型也能凭借创新的训练方法展现强大的潜力。
DeepScaleR的创新训练方法:循序渐进,逐步突破
DeepScaleR的成功不仅在于其
小模型的高效性
,更在于其独特的
训练方法
。这种方法突破了传统大规模预训练模型的限制,采用了
渐进式强化学习
策略,逐步引导模型提高推理能力。
1. 迭代式上下文扩展:从短到长,逐步加深推理深度
DeepScaleR的训练策略基于
迭代式上下文扩展
。与直接训练大上下文长度的传统方法不同,研究团队选择了从较短的上下文开始,逐步扩大模型的推理空间。模型的初始阶段处理的是
8K字符长度的题目
(类似于高中生的作业),随着模型推理能力的提升,逐渐扩展到
16K字符
(挑战性更高的题目),最终提升到
24K字符
,这种逐步扩展的策略能够有效避免过早增加复杂性对模型训练的负面影响。
这种方法的核心理念在于:
让模型首先掌握较短的、较简单的推理过程,再通过扩展上下文长度来挑战更复杂的数学问题
。这一策略帮助模型逐步构建了自己的推理路径,避免了“信息过载”,让模型能够高效地消化和理解复杂的数学问题。
2. 强化学习奖励机制:纯粹的正确性驱动
DeepScaleR采用了非常简洁而有效的强化学习奖励机制——
1分奖励正确答案,0分奖励错误答案
。这一方式避免了奖励滥用的问题,确保了模型只会在给出正确答案时获得奖励。与传统强化学习中可能使用的“过程奖励”不同,DeepScaleR使用了
结果奖励模型(ORM)
,即只关心最终结果的正确性而非中间步骤。这种方法在数学推理任务中尤其有效,因为数学推理的目标是最终给出正确的答案,而中间过程的正确性往往不能直接映射为最终结果。
这种
纯粹的二进制奖惩机制
实际上更加符合数学的严谨性:
没有中间地带,只有正确与错误
,这种奖励方式使得模型能够专注于解决问题的核心,避免了过多的“冗余”推理。
3. 小模型大突破:高效利用计算资源
尽管DeepScaleR只有1.5B的参数,但它的训练效率远超预期。整个训练过程只消耗了
3,800 A100 GPU小时
,这意味着模型的训练成本仅为
约4,500美元
。这与传统的大规模预训练模型相比,显得非常经济高效。例如,在使用大量参数和上下文的传统大模型训练时,训练成本通常会达到数百万美元,甚至更多。DeepScaleR的成功表明,
小模型同样可以通过创新的训练方法获得强大的推理能力,而不需要庞大的计算资源
。
这种训练的高效性得益于两大因素:一是
强化学习的高效利用
,二是
迭代式上下文扩展
,这使得训练过程更加专注于模型的推理能力,而非大量计算。
卓越性能:超越o1-preview,挑战数学竞赛
为了评估DeepScaleR的性能,研究团队将其与多个主流模型进行了对比,包括基础的
DeepSeek-R1-Distilled-Qwen-1.5B
和来自学术界的
rSTAR-Math-7B
、
Eurus-2-7B-PRIME
、以及
Qwen2.5-7B-SimpleRL
等模型。
通过对比可以看出,DeepScaleR-1.5B-Preview在
AIME 2024
、
MATH 500
和
AMC 2023
等多个数学竞赛测试中,表现出色。尤其是在
AIME 2024
测试中,DeepScaleR的
Pass@1准确率
达到了
43.1%
,比基础模型提升了
14.4%
,这一成绩超越了OpenAI的
o1-preview
,展示了其出色的推理能力。
在所有的测试中,DeepScaleR的
平均性能
也表现极为出色,达到了
57.0%
,远超其他基准模型,尤其是在
MATH 500
和
AMC 2023
测试中,DeepScaleR均取得了87.8%
和
73.6%的卓越成绩。
欢迎光临 链载Ai (https://www.lianzai.com/)
Powered by Discuz! X3.5