OpenAI 开源了两款用于危害分类的开源权重推理安全模型:gpt-oss-safeguard-120b和 gpt-oss-safeguard-20b;这些模型接收开发者的策略文本和内容作为输入,返回分类标签和解释说明,让你可以用可审计的推理过程来执行自己的规则。
核心创新:这些模型将内容审核从固定分类器转变为基于策略的推理。修改规则就像编辑策略文本一样简单,无需重新训练、无需新数据集、无需新检查点。
因为策略是输入参数,你可以为不同产品、地区或年龄段切换不同策略,同一个模型就能遵循每一套规则。你还能获得解释说明,展示策略文本如何引导决策,这让审计和申诉变得更容易。
输出包含简短的推理依据,说明策略文本如何得出决策结论,大大简化了审查和申诉流程。
适用场景:这种方法在以下情况下表现出色:
风险是新出现的
训练数据稀缺
领域内容复杂微妙
需要高质量可解释的标签而非最低延迟
例如,论坛可以使用自己的定义来标记作弊言论,评论网站可以用自己的标准筛查虚假评价,只需编辑策略文本,无需收集数千个标注样本。
内部应用:在 OpenAI 内部,他们使用类似的工具叫Safety Reasoner,通过强化学习微调来奖励符合策略的判断,让模型学会从策略文本进行推理。
这种策略让他们能快速更新生产环境中的安全规则,先从严格开始,然后根据实际情况放松或收紧,这个过程称为迭代部署。
他们还报告称,安全推理有时确实需要大量算力,在某些发布中,谨慎应用策略消耗了总算力的16%。
实用架构模式:OpenAI 描述了他们内部技术栈的一个实用模式:先运行一个轻量廉价的分类器过滤明显安全的内容,只将少量棘手的项目发送给重量级推理模型。
Safety Reasoner 现已成为图像生成和 Sora 2 核心安全技术栈的一部分,逐步评估输出并实时拦截不安全的生成内容。
同样的分层检查机制在 GPT-5 和 ChatGPT Agent 等系统中根据详细分类法对输出进行分类,让平台能针对特定风险类别定制响应。
性能表现:多策略准确率测试(单个输入必须同时符合多个策略):
gpt-oss-safeguard-120b: 46.3%
gpt-oss-safeguard-20b: 43.6%
内部 Safety Reasoner: 52.2%
gpt-5-thinking: 43.2%
这个指标很严格,只有模型在所有策略上都匹配黄金标签才算准确,是一个强调一致性的高标准。
OpenAI 2022 审核数据集:
两款 gpt-oss-safeguard 模型: F1 分数 82.9
内部 Safety Reasoner: F1 分数 82.8 开源权重模型表现相当。
ToxicChat 基准测试:
gpt-oss-safeguard-120b 和 20b: F1 分数 79.3 和 79.9
内部 Safety Reasoner 和 gpt-5-thinking: F1 分数 81.3 和 81.0 紧凑的开源模型有竞争力,但在这个特定测试中不是顶尖。
技术特点与局限:这些模型是 OpenAI 开源模型的微调版本,可以融入现有的开源权重技术栈,适用于有数据驻留或离线控制需求的场景。
明确的局限性:
在困难类别上,使用数万高质量标签训练的专用分类器仍可能优于基于策略的推理
存在成本权衡:推理比小型分类器需要更多时间和算力,因此分层管道是高流量平台的实用模式
使用建议:对于开发者来说,选择很直接:
使用 gpt-oss-safeguard: 当策略经常变化、需要解释说明、标注数据稀缺时
使用专用分类器: 当你能承担大规模标注工作并需要最后几个百分点的准确率时
核心价值:总的来说,这里最强大的理念是策略即提示词(policy-as-prompt)配合可见推理,它将安全规则与模型权重解耦,缩短了从策略变更到生产环境行为改变的周期。
如何使用 gpt-oss-safeguard:与gpt-oss 系列模型一样,这是一个开源模型,具有开放权重,你可以在本地运行或集成到自己的基础设施中。它设计为与harmony 响应格式配合使用。Harmony 是一种结构化提示词接口,为 gpt-oss-safeguard 提供完整推理栈的访问权限,并确保输出一致且格式规范。
运行环境:gpt-oss 系列模型(包括 gpt-oss-safeguard)可以在以下服务器环境中运行:
vLLM(适用于专用 GPU,如 NVIDIA H100):gpt-ossvLLM Usage Guide;https://docs.vllm.ai/projects/recipes/en/latest/OpenAI/GPT-OSS.html
HuggingFace Transformers(适用于消费级 GPU):How to run gpt-oss locally with LM Studio;https://cookbook.openai.com/articles/gpt-oss/run-locally-lmstudio
Google Colab:How to run gpt-oss-20b on Google Colab;
https://cookbook.openai.com/articles/gpt-oss/run-colab
也可以在本地运行:
LM Studio:How to run gpt-oss locally with LM Studio;https://cookbook.openai.com/articles/gpt-oss/run-locally-lmstudio
Ollama:How to run gpt-oss locally with Ollama;
https://cookbook.openai.com/articles/gpt-oss/run-locally-ollama
目标用户:gpt-oss-safeguard 专为需要大规模实时上下文和自动化的用户设计,包括:
机器学习/AI 工程师- 从事信任与安全系统工作,需要灵活的内容审核
信任与安全工程师- 构建或改进审核、信任与安全或平台完整性管道
技术项目经理- 监督内容安全计划
开发者- 构建需要基于上下文和策略的内容审核的项目/应用
策略制定者- 定义组织可接受内容标准,希望测试策略界限、生成示例并评估内容
模型地址:https://huggingface.co/collections/openai/gpt-oss-safeguard
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |