一篇短文,刷新一下观点的有效期,没有新的观点。
我在2025年Q1有一系列文章讨论我当时在RFT上的实践,和我对于RFT价值的看法。
之后由于我跑去做别的了,所以没有再提RFT这边。但这并不代表说我不看好RFT了。
目前整个应用层对于RFT的实践仍然似乎成功率不高,不过这更多是由于其infra要求更高,以及试用问题选择需要的认知更多,需要调节的超参数更多了。门比SFT窄得多。
但作为目前少有的几大方案,RFT仍然是我们无法无视的,特别是对于一些比较大的组织,(这里的比较大是指单个BU内,单一细分岗位有100人以上的规模)。不过确实对于这种规模组织来说,如何获得第一个成功案例是比较难的,但他们也有钱可以去买一个教学案例。
我目测RFT被低估这个判断的有效期还能持续1年。
从LLM模型的用户角度观察,目前海外前沿模型厂对于RL post-training的调教已经进入了第二阶段,优化了reasoning token数。有安全报告说明GPT-5模型的思考过程已经开始出现非人话的情况,这都是(暴力)压缩reasoning token的副作用。
Agent构建平台" data-itemshowtype="0" linktype="text" data-linktype="2">RFTaaS有望成为第一种通用Agent构建平台
GRPO 实验经验笔记(1)
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |