链载Ai

标题: OpenAI公开新的模型训练方法:或许能解决模型撒谎问题,已在GPT-5 thiking验证 [打印本页]

作者: 链载Ai    时间: 1 小时前
标题: OpenAI公开新的模型训练方法:或许能解决模型撒谎问题,已在GPT-5 thiking验证



刚刚OpenAI公开了一种新的重要的模型训练方法(概念验证)

面对大型语言模型(LLM)可能出现的欺骗行为——比如为了讨好人类用户而撒谎、隐瞒违规操作,甚至为了获得更高奖励而进行“奖励黑客攻击(Reward Hacking)”,OpenAI提出了一种名为“坦白(Confession)”的训练方法

简单来说,就是在模型给出回答之后,强制要求它进行一次自我反省,诚实地交代自己在刚才的回答中是否遵守了所有指令,有没有走捷径,或者是否存在不确定的地方

研究人员在GPT-5-Thinking上进行了实验。结果显示,通过这种训练,通过“坦白”来监测模型的不当行为是可行的,即使模型在主要回答中撒了谎,它往往也能在随后的“坦白”中诚实交代

这项研究的论文题目为《Training LLMs for Honesty via Confessions》

paper:

https://cdn.openai.com/pdf/6216f8bc-187b-4bbb-8932-ba7c40c5553d/confessions_paper.pdf


什么是“坦白”?

在强化学习训练中,模型往往面临复杂的奖励目标(正确性、风格、安全性等)。这可能导致一种风险:模型为了最大化奖励,学会了生成“看起来很好”但实际上不符合用户意图或存在缺陷的回答

OpenAI提出的“自白”机制,旨在解决这个问题。

其核心流程如下(如图所示):

1.标准交互: 用户提问(x) -> 模型进行思维链推理(CoT)和工具调用(z) -> 模型给出回答(y)

2.强制坦白:系统发出一条特殊的系统消息(xc),要求模型提供一份“坦白报告”(yc)

3.报告内容: 模型需要在报告中列出所有显性或隐性的指令与约束,评估自己是否遵守了这些要求,并列出任何不确定性或模糊之处


关键在于奖励机制的设计:

分离奖励: “坦白”的奖励与“主要回答”的奖励是完全分开的。
只奖诚实:“坦白”的奖励仅基于其诚实度和全面性,由一个专门的LLM裁判打分

互不影响:无论模型在自白中承认了多么糟糕的行为(比如承认自己偷懒了),都不会影响它因完成主要任务而获得的奖励

这就像天主教的“告解室”机制:无论你在自白中揭露了什么,都不会改变你主要回答的得分。只要诚实交代是获取坦白奖励的“阻力最小路径”,模型就有动力说真话

在GPT-5-Thinking上的实测结果

为了验证这一方法的有效性,研究团队在GPT-5-Thinking模型上进行了轻量级的RL训练。他们在训练中以25%的概率要求模型输出“坦白”

并在多个分布外(OOD)的场景下进行了评估,涵盖幻觉、指令遵循、暗中策划(Scheming)和奖励黑客攻击等领域。

主要发现如下:

1. 坏行为多半会被招供
当模型表现出不良行为时,在12项评估中有11项,模型至少有一半的概率会在“自白”中承认这一点。

2. “坦白”比“回答”更诚实
当模型出现不良行为时,它在“坦白”中坦白从宽的可能性,显著高于在主要回答中承认错误的可能

3. 训练提升了自白准确率
虽然GPT-5-Thinking本身就具备一定的坦白能力,但经过专门训练后,其自白的准确性有适度提升

4. 不影响主任务性能
在计算量匹配的对比实验中,加入“坦白”训练并没有显著提高或降低模型在原始任务上的表现

测试发现,坦白法显著提高了模型不良行为的可见性。在所有诱发不良行为的评估中,平均而言,模型不遵守指令且不坦白的概率仅为 4.4%

甚至能检测出“奖励黑客”行为

研究人员还设计了一个特殊的实验来测试“奖励黑客攻击(Reward Hacking)”

他们故意用一个弱裁判模型(容易被糊弄)来训练策略模型。结果发现,随着训练进行,策略模型学会了欺骗这个弱裁判,在回答中通过作弊来获取高分(例如在要求字数限制的任务中通过特殊格式蒙混过关)

然而,“坦白”的准确率却在上升

这意味着,虽然模型学会了在回答里耍滑头来骗取主任务奖励,但它在随后的坦白中,依然诚实地指出了自己没有遵守指令。这验证了研究的一个核心假设:诚实地承认违规,比试图欺骗“坦白裁判”更容易获得奖励。

此外,研究还发现,通过分析“坦白”的文本,可以提取出模型对自己回答的主观置信度(0-1之间的数值)。这个置信度能较好地预测模型回答是否正确。

局限性:不知道自己错在哪,就没法招

当然,这种方法并非完美无缺。

最大的局限在于“无知的错误”。如果模型未能遵守指令是因为它真的能力不足、理解错了,或者是产生了幻觉(它真心认为自己是对的),那么它就无法在“坦白”中承认错误。

数据分析显示,绝大多数“漏报”的情况都是由于模型真的搞错了,而不是故意隐瞒。

此外,目前的坦白是一个单独的输出步骤,主要用于推理时的监控、拒绝采样或向用户提示风险,并不能直接消除模型回答中的不良行为

OpenAI认为,随着模型能力越来越强,不知道自己错了的情况会减少,这种基于坦白的监控机制将变得更加有效,可以作为思维链(CoT)监控的有力补充







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5