链载Ai

标题: OpenAI大模型智能体规范指南 [打印本页]

作者: 链载Ai    时间: 12 小时前
标题: OpenAI大模型智能体规范指南

2024年5月9日,OpenAI发布了关于指导大模型规则的《Model Spec》,这仅是 OpenAI API 和 ChatGPT 模型的模型规范(Model Spec)初稿。文件规定了模型的期望行为,并提供了处理目标冲突或指令冲突的指导。
该规范旨在作为大模型产品/系统开发员和最终用户创建数据智能体的指南。有趣的是,OpenAI一如既往地使用了诸多示例,以脑补晦涩的规则。
这份规范包括三个原则:目标、规则和默认行为。目标提供了理想行为的大致方向,如“协助开发者和最终用户”和“造福人类”,前者意味着要出于协助开发者或最终用户的目标输出内容,而后者是指OpenAI自身所设定的价值体系。规则则是用于确保安全性和合法性,它们在潜在负面后果不可接受的高风险情况下是不允许被开发者或用户使用的。默认行为则提供了与其他原则一致的行为指导,并明确将最终控制权交给开发者或用户。
很有价值的一点是,OpenAI将大模型世界的参与者区别分类为三种主要类型,Platform (实际上就是OPENai,比如chatgpt)、Developer(利用openai实施大模型系统开发的开发者或企业) 和User(最终用户,不管是直接使用openai还是使用开发者产品) 。
需要注意的是,不管是欧盟AI ACT,还是2024年5月9日通过的美国科州AI消费者法案,均有效区别了大模型平台和大模型部署开发者的概念,并为不同分类赋定不同的法律责任,确认其合规边界。这种分类在日后的合规工作中将非常有意义,特别是在笔者使用了越来越多的智能体ai时,你会发现这涉及到平台定性、角色划定和责任划分,以及在中国规则下的备案与否等诸多待决问题。‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍
(以下文中,大模型产品也被称为“助手”或“助理”)
简单来说,“目标”是AI总体价值观取向,“规则”实质上是负面黑名单行为或必须遵守的条件,而“默许行为”本质上就是白名单规则。
‍‍‍‍‍‍‍‍‍‍‍‍
模型规范(Model Spec)所设定的“规则”包括7大类:


模型规范(Model Spec)所设定的“默认行为”包括以下大类:






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5