链载Ai

标题: OpenAI发布Prompt Caching - API调用成本更低啦! [打印本页]

作者: 链载Ai    时间: 昨天 11:40
标题: OpenAI发布Prompt Caching - API调用成本更低啦!

ingFang SC", system-ui, -apple-system, "system-ui", "Helvetica Neue", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.544px;text-wrap: wrap;background-color: rgb(255, 255, 255);visibility: visible;">

今天,OpenAI推出了提示缓存(Prompt Caching),允许开发者降低成本和延迟。通过重复使用最近看到的输入令牌,开发者最多可以降低50%的成本和更快的提示处理时间。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;letter-spacing: 0.034em;">为什么发布提示缓存?

许多开发者在构建AI应用程序时会在多个API调用中重复使用相同的上下文,例如在编辑代码库或与聊天机器人进行长时间多轮对话时。

提示缓存可用性和定价

从今天开始,提示缓存自动应用于GPT-4o、GPT-4o mini、o1-preview和o1-mini的最新版本,以及这些模型的微调版本。以下是定价概览:

如何监控缓存的使用?

对支持的模型的API调用将自动从超过1024个Token的提示词启用缓存。API会缓存之前已计算过的提示的最长前缀,从1024个令牌开始,以128个令牌为增量。如果开发者重复使用具有共同前缀的提示,OpenAI将自动应用提示缓存。开发者无需对API集成进行任何更改。

使用提示缓存的请求在API响应的'usage'字段中有一个'cached_tokens'值:

usage:{total_tokens:2306,prompt_tokens:2006,completion_tokens:300,prompt_tokens_details:{cached_tokens:1920,audio_tokens:0,},completion_tokens_details:{reasoning_tokens:0,audio_tokens:0,}}


缓存通常在5-10分钟不活动后清除,并且始终在缓存最后使用后一小时内移除。

如何有效地结构化提示词?

只有在提示内完全匹配前缀时才可能出现缓存命中。要实现缓存收益,请将静态内容(如指令和示例)放在提示的开头,并将可变内容(如用户特定信息)放在末尾。这也适用于图像和工具,它们在请求之间必须完全相同。

工作原理

对于1024个令牌或更长的提示,缓存自动启用。当您发出API请求时,会发生以下步骤:

  1. 缓存查找: 系统检查您提示的初始部分(前缀)是否存储在缓存中。

  2. 缓存命中: 如果找到匹配的前缀,系统使用缓存的结果。这显著降低了延迟并减少了成本。

  3. 缓存未命中: 如果没有找到匹配的前缀,系统处理您的完整提示。处理后,您提示的前缀将被缓存以供将来请求使用。

可以缓存的内容



最佳实践


祝大家的AI应用开发越来越好!






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5