链载Ai

标题: 硅基流动国际站上线 OpenAI gpt-oss [打印本页]

作者: 链载Ai    时间: 昨天 19:18
标题: 硅基流动国际站上线 OpenAI gpt-oss

硅基流动国际站已上线由 OpenAI 开源的两款轻量级 MoE 模型gpt-oss-120B(117B总参数,5.1B 激活参数)和gpt-oss-20B(21B总参数,3.6B 激活参数)。


这是 OpenAI 首次对外开源的大模型。两款模型专为智能 Agent 工作流设计,均具备强大的指令执行、工具调用、少样本函数调用、结构化输出及完整思维链(CoT)能力,支持根据任务灵活调整逻辑推理强度,实现性能、成本与延迟的最佳平衡。在多项评测中,gpt-oss-120B 表现与 OpenAI o4-mini 持平甚至超越,即使规模更小gpt-oss-20B 仍达到或优于 o3-mini 水平。


国际站上的gpt-oss支持131K最大上下文长度。其中,gpt-oss-120B 的价格为输入0.09美元 / M Tokens,输出为0.45美元 / M Tokens;gpt-oss-20B 的价格为输入 0.04 美元 / M Tokens,输出为 0.18 美元 / M Tokens。


Image
Image


欢迎通过以下方式使用gpt-oss,国际站新用户可自动获取 1 美元赠金体验。


在线体验

https://cloud.siliconflow.com/models


开发者 API 文档

https://docs.siliconflow.com/en/api-reference/completion/create-completion



模型特点及性能



gpt-oss 模型采用 OpenAI 最先进的预训练与后训练优化技术,借鉴了包括 o3 等模型的前沿方法,特别强调逻辑推理能力、效率以及在多样化部署环境中的实际可用性。


两款模型均为 Transformer 架构,采用 MoE 以减少处理输入所需的活跃参数量。这些模型交替使用密集注意力与局部带状稀疏注意力模式,类似于 GPT‑3。为提升推理与内存效率,模型还使用分组多查询注意力机制(组大小为 8),并采用旋转位置编码(RoPE)进行位置表征,原生支持长达 128K 的上下文长度。


这些模型采用了与 o4-mini 相似的后训练流程,包括监督微调阶段和高计算量的强化学习阶段。通过采用与专有推理模型相同的技术,这些模型在后训练后展现出卓越性能。



OpenAI 团队对gpt-oss-120B和gpt-oss-20B 进行了系统评测,重点考察它们在编程、竞赛数学、医疗及智能体工具调用等关键任务上的表现,并将其与主流 OpenAI 推理模型(包括 o3、o3‑mini 和 o4-mini)做了深入比较。


结果显示,gpt-oss-120B在竞赛编程(Codeforces)、通用问题解决(MMLU 和 HLE)以及工具调用(TauBench)等多项任务中均优于 OpenAI o3‑mini,在多个维度上实现了与 OpenAI o4-mini 持平甚至更优。特别是在健康查询(HealthBench)与竞赛数学(AIME 2024 和 2025)方面,其表现甚至超过了 o4-mini。尽管gpt-oss-20B 规模较小,但在同样的测试中也实现了与 o3‑mini 持平甚至更优的成绩,尤其在竞赛数学和医疗应用方面表现不俗。

Image







欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5