链载Ai

标题: OpenAI开发者日:实时API、模型蒸馏、视觉微调重磅发布! [打印本页]

作者: 链载Ai    时间: 昨天 11:33
标题: OpenAI开发者日:实时API、模型蒸馏、视觉微调重磅发布!


ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.1em;color: rgb(63, 63, 63);">OpenAI DevDay 绝对是开发者们的狂欢!? Sam Altman 这次火力全开,一口气发布了一堆重磅更新,从 ChatGPT 的高级语音功能到全新的 Realtime API,再到模型蒸馏、视觉微调和 Playground 新功能,简直让人眼花缭乱!

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: inherit;color: rgb(15, 76, 129);">前方高能预警,划重点时间到!

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;padding-left: 8px;color: rgb(63, 63, 63);">ChatGPT 高级语音功能全球上线!

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.1em;color: rgb(63, 63, 63);">所有 ChatGPT 企业版、教育版和团队版用户现在都可以使用高级语音功能了!普通 Plus 和 Free 用户也能尝鲜高级语音功能了!? (欧盟、英国、瑞士、冰岛、挪威和列支敦士登的用户还要再等等 ) 最新版 ChatGPT App 才能体验哦!

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;padding-left: 8px;color: rgb(63, 63, 63);">实时 API (Realtime API) 测试版发布,这应该是整个dev day发布的最重磅的功能!

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.1em;color: rgb(63, 63, 63);">开发者现在可以用 OpenAI 的 API 在自己的应用中构建低延迟、多模态的语音对话体验,就像 ChatGPT 的高级语音模式一样!?ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: inherit;color: rgb(15, 76, 129);">测试版面向所有付费开发者开放,使用的模型是ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-feature-settings: normal;font-variation-settings: normal;font-size: 12.6px;text-align: left;line-height: 1.75;color: rgb(221, 17, 68);background: rgba(27, 31, 35, 0.05);padding: 3px 5px;border-radius: 4px;">gpt-4o-realtime-previewingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: inherit;color: rgb(15, 76, 129);">通过 WebSocket 持久连接与 GPT-4o 交换信息,支持函数调用,让语音助手更强大!相比于之前的多模型串联方式,Realtime API 能够提供更自然的对话体验,还能像 ChatGPT 的高级语音模式一样自动处理中断

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.1em;color: rgb(63, 63, 63);">Realtime API 的发布意义重大,你可以打造自己的实时语音对话功能了!再也不需要像以前先 Whisper 转录,ChatGPT 生成,再文本转语音。它标志着 OpenAI 在 AI 应用领域迈出了重要一步,并可能对未来 AI 应用的交互方式产生深远的影响

不过价钱不算便宜,但也可以接受,每分钟音频输入大约 0.06 美元,音频输出约 0.24 美元。不考虑输入,10 分钟的输出音频就是 3 美元

以下是我认为 Realtime API 最重要的意义:

  1. 1.解锁实时交互体验:之前的 API 调用模式是“请求-响应”式的,用户需要等待模型处理完请求后再给出响应,这在某些场景下会造成延迟,影响用户体验。Realtime API 通过 WebSocket 实现了实时双向通信,让 AI 应用能够像人类一样进行实时对话,极大地提升了用户体验,例如在语音助手、在线教育、游戏等场景中,实时交互至关重要


  2. 2.降低开发门槛,促进 AI 应用创新:以前,开发者要构建语音对话应用,需要将语音识别、文本生成和语音合成等多个模型串联起来,开发流程复杂,难度较高。Realtime API 简化了开发流程,开发者只需调用一个 API 就能实现语音对话功能,这将大大降低 AI 应用的开发门槛,并促进 AI 应用的创新。开发者可以更专注于应用逻辑和用户体验的设计,而无需担心底层技术的复杂性


  3. 3.拓展 AI 应用场景:Realtime API 的实时交互能力,为 AI 应用开辟了更广阔的应用场景。除了语音助手和在线教育,它还可以应用于游戏、虚拟现实、增强现实等领域,例如,在游戏中,AI 可以作为 NPC 与玩家进行实时对话;在 VR/AR 中,AI 可以作为虚拟人物与用户进行互动


  4. 4.推动 AI 技术发展:Realtime API 的发布,也促进了 AI 技术本身的发展。为了实现实时交互,OpenAI 需要不断优化模型的推理速度和效率,并改进 AI 的自然语言理解和生成能力。这将推动 AI 技术朝着更强大、更智能的方向发展。

聊天补全 API (Chat Completions API) 新增音频输入和输出功能,让你的应用“能听会说”

开发者现在可以向 GPT-4o 输入文本或音频,并让模型以文本、音频或两者结合的方式进行回复。这项功能将在未来几周内推出,使用的模型是gpt-4o-audio-preview无需复杂的模型组合,一个 API 调用就能搞定!虽然速度比不上 Realtime API,但对于那些对延迟要求不高的应用来说,Chat Completions API 的音频功能也足够用了

Prompt Caching 功能上线,省钱省时

模型现在可以复用最近见过的输入 token,这样可以将更多缓存的上下文添加到模型中,价格还能打五折,而且不影响延迟!?该功能适用于 GPT-4o、GPT-4o mini、o1-preview 和 o1-mini 的最新版本,以及它们的微调版本。API 调用会自动缓存超过 1024 个 token 的提示,并以 128 个 token 为增量递增。缓存通常在 5-10 分钟不活动后清除,并且会在上次使用后一小时内清除。API 响应中的usage字段会包含cached_tokens值,方便开发者监控缓存使用情况。这项功能对于那些需要重复使用相同上下文的应用来说,简直是福音,例如代码库编辑和多轮聊天机器人

模型蒸馏 (Model Distillation) 工作流上线,轻松打造高性价比模型!

开发者现在可以直接在 OpenAI 平台上使用 o1-preview 和 GPT-4o 等前沿模型的输出来微调更经济高效的模型,例如 GPT-4o mini。这将简化模型蒸馏的流程,减少手动操作和错误,让开发者可以更专注于模型性能的提升。模型蒸馏允许开发者使用功能更强大的模型的输出来微调更小、更经济的模型,从而让它们能够以更低的成本在特定任务上达到与高级模型相当的性能。之前,蒸馏是一个多步骤、容易出错的过程,需要开发者手动协调多个不相关的工具,从生成数据集到微调模型再到测量性能改进。由于蒸馏本质上是迭代的,因此开发者需要重复运行每个步骤,这会增加大量的工作量和复杂性。OpenAI 的新模型蒸馏套件解决了这个问题

GPT-4o 视觉微调功能上线,让你的 AI “看懂” 世界!

开发者现在可以用图像和文本对 GPT-4o 进行微调,以提高其视觉理解能力,例如增强视觉搜索功能、改进自动驾驶或智能城市的目标检测,以及更准确的医学图像分析。OpenAI 与 Grab、Automat 和 Coframe 等合作伙伴进行了测试,结果表明视觉微调可以显著提高 GPT-4o 在图像理解和代码生成等任务上的性能。到 10 月 31 日之前,每天可以免费使用 100 万个训练 token。微调后的模型完全由你控制,你拥有你的业务数据的完全所有权。OpenAI 不会未经你的明确许可而使用你在服务中使用的输入或输出来训练他们的模型。图像输入首先根据图像大小进行标记化,然后以与文本输入相同的每标记速率进行定价

Playground 新功能,快速构建原型!

Playground 现在可以根据你的描述自动生成提示和模式,让你快速构建原型!

OpenAI o1 API 扩展访问权限和提高速率限制!

o1 API 现在对更多开发者开放 (包括使用级别 3 的开发者),速率限制也提高到了与 GPT-4o 相同的水平,方便开发者构建生产就绪的应用。具体速率限制如下:

- 5 级:o1-preview:10,000个请求/分钟;o1-mini:30,000个请求/分钟
- 4 级:o1-preview 和 o1-mini:10,000个请求/分钟
- 3 级:o1-preview 和 o1-mini:5,000个请求/分钟

OpenAI 还提供了一些实用工具和服务:

OpenAI 计划为 Realtime API 和其他功能引入更多更新,包括:

更多模态:除了语音,还将支持视觉和视频等模态

更高的速率限制:将逐步提高速率限制,以支持更大规模的部署

官方 SDK 支持:将集成对 Realtime API 的支持到 OpenAI Python 和 Node.js SDK 中

扩展模型支持:将在未来的版本中支持 GPT-4o mini

提示缓存:将添加对提示缓存的支持






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5