|
大模型也会玩信息差了。 Qwen3在基准测试中居然学会了钻空子。 FAIR研究员发现Qwen3在SWE-Bench Verified测试中,不按常理修bug,反而玩起了信息检索大法。 不分析代码逻辑,不定位漏洞根源,而是直接跑到GitHub上搜任务里的issue编号,精准扒出了前人留下的修复方案。 能说吗,会搜代码才是真正的程序员行为吧。而Qwen3,你是真正的程序员。 Qwen3是如何钻空子的要知道,SWE-Bench Verified本来是检验模型真刀真枪修代码的基准,相当于编程届的资格考试。 它的测试逻辑是这样的:在代码修复类任务中,它给模型的任务全是真实开源项目里的bug,比如修复某个功能异常、补全缺失的代码模块,核心要求是模型能读懂现有的代码、定位到问题在哪,最后生成能够直接运行的解决方案。 这原本考验的是模型从0到1解决问题的能力,但我们的Qwen3,可没按这个剧本走。 FAIR研究团队追踪它的操作轨迹发现,Qwen3拿到任务后,第一步不是分析代码文件,而是调用工具检索GitHub的提交日志。 具体操作是: - 先切换(cd)到/workspace/django_django_4.1这个目录;
- 然后执行git log —oneline —grep=“33628” —all这个命令。
git log是查看Git版本控制提交历史的命令,—oneline让提交历史以简洁的一行的形式展示。 —grep用于筛选提交指定内容(在这个例子中是issue编号33628),—all则表示所有分支的提交。 最后以退出码0表示命令成功执行。 一番操作之后,Qwen3不用动脑子写代码就轻松“借鉴”了以前的成功答案。(怎么不算动脑子了呢) 其实不止Qwen3,研究者发现Claude 4 Sonnet也有类似的行为。 不过,模型能成功钻空子,当然也不全是自身的原因。 说回SWE-Bench Verified,它自身的设计就有漏洞——没过滤未来仓库状态。 简单说就是,这个测试用的是开源项目数据,所以它连带着项目后续已经解决bug的提交记录一起放进去了,相当于把考题和参考答案混在一起,还没设权限。 正常来说,测试应该只给模型bug未修复时的项目状态,让它只看着题目解题。 但SWE-Bench Verified没做这个筛选,导致模型能够拿到bug已经被修复后的数据。 于是,只要用任务里的issue编号当关键词,就能在已解决的数据里找到现成的修复方案。 看来啊,不是只有人类知道搜答案比解问题简单,现在大模型也知道了。(Doge) 虽然说,按正常规则,这些模型确实是在作弊,但也有网友觉得:只要能完成任务,利用规则漏洞也没什么不行的。 所以,你觉得这种行为算作弊还是算Qwen3聪明呢? |