链载Ai

标题: OpenAI 开源了推理安全模型-gpt-oss-safeguard-120b 和 gpt-oss-safeguard-20b [打印本页]

作者: 链载Ai    时间: 4 天前
标题: OpenAI 开源了推理安全模型-gpt-oss-safeguard-120b 和 gpt-oss-safeguard-20b


OpenAI 开源了两款用于危害分类的开源权重推理安全模型:gpt-oss-safeguard-120b和 gpt-oss-safeguard-20b;这些模型接收开发者的策略文本和内容作为输入,返回分类标签和解释说明,让你可以用可审计的推理过程来执行自己的规则。

核心创新:这些模型将内容审核从固定分类器转变为基于策略的推理。修改规则就像编辑策略文本一样简单,无需重新训练、无需新数据集、无需新检查点。

因为策略是输入参数,你可以为不同产品、地区或年龄段切换不同策略,同一个模型就能遵循每一套规则。你还能获得解释说明,展示策略文本如何引导决策,这让审计和申诉变得更容易。

输出包含简短的推理依据,说明策略文本如何得出决策结论,大大简化了审查和申诉流程。

适用场景:这种方法在以下情况下表现出色:

例如,论坛可以使用自己的定义来标记作弊言论,评论网站可以用自己的标准筛查虚假评价,只需编辑策略文本,无需收集数千个标注样本。

内部应用:在 OpenAI 内部,他们使用类似的工具叫Safety Reasoner,通过强化学习微调来奖励符合策略的判断,让模型学会从策略文本进行推理。

这种策略让他们能快速更新生产环境中的安全规则,先从严格开始,然后根据实际情况放松或收紧,这个过程称为迭代部署。

他们还报告称,安全推理有时确实需要大量算力,在某些发布中,谨慎应用策略消耗了总算力的16%。

实用架构模式:OpenAI 描述了他们内部技术栈的一个实用模式:先运行一个轻量廉价的分类器过滤明显安全的内容,只将少量棘手的项目发送给重量级推理模型。

Safety Reasoner 现已成为图像生成和 Sora 2 核心安全技术栈的一部分,逐步评估输出并实时拦截不安全的生成内容。

同样的分层检查机制在 GPT-5 和 ChatGPT Agent 等系统中根据详细分类法对输出进行分类,让平台能针对特定风险类别定制响应。

性能表现:多策略准确率测试(单个输入必须同时符合多个策略):

这个指标很严格,只有模型在所有策略上都匹配黄金标签才算准确,是一个强调一致性的高标准。

OpenAI 2022 审核数据集:

ToxicChat 基准测试:

技术特点与局限:这些模型是 OpenAI 开源模型的微调版本,可以融入现有的开源权重技术栈,适用于有数据驻留或离线控制需求的场景。

明确的局限性:

使用建议:对于开发者来说,选择很直接:

核心价值:总的来说,这里最强大的理念是策略即提示词(policy-as-prompt)配合可见推理,它将安全规则与模型权重解耦,缩短了从策略变更到生产环境行为改变的周期。

如何使用 gpt-oss-safeguard:与gpt-oss 系列模型一样,这是一个开源模型,具有开放权重,你可以在本地运行或集成到自己的基础设施中。它设计为与harmony 响应格式配合使用。Harmony 是一种结构化提示词接口,为 gpt-oss-safeguard 提供完整推理栈的访问权限,并确保输出一致且格式规范。

运行环境:gpt-oss 系列模型(包括 gpt-oss-safeguard)可以在以下服务器环境中运行:

https://cookbook.openai.com/articles/gpt-oss/run-colab

也可以在本地运行:

https://cookbook.openai.com/articles/gpt-oss/run-locally-ollama

目标用户:gpt-oss-safeguard 专为需要大规模实时上下文和自动化的用户设计,包括:

模型地址:https://huggingface.co/collections/openai/gpt-oss-safeguard






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5