链载Ai

标题: 大模型 Token 的消耗可能是一笔糊涂账 [打印本页]

作者: 链载Ai    时间: 4 小时前
标题: 大模型 Token 的消耗可能是一笔糊涂账

如果您正在部署大模型应用,务必提前和 CEO 打好预防针,大模型应用远不如 Web 应用在资源成本上那么可控。

经典的 Web 应用,例如电商、游戏、出行、新能源、教育和医疗等,CPU 的消耗是可控的,和应用的在线人数和登陆时长成正相关,如果计算资源突增,可能是运营团队在做活动,也可能是预期外的突发流量,通过服务器弹性扩容后,稳定一段时间就会缩容到平时的状态,后端所消耗的资源是可追踪、可管控的。但大模型的 token 消耗并不是。


目录

01 大模型 token 消耗和哪些因素有关

02 大模型 token 消耗的隐蔽性来源

03 Agent 的资源消耗账本更加复杂

04 如何控制 token 的异常消耗初探

05 总结


01 大模型资源消耗和哪些因素有关

根据量子位的一篇文章[1],当输入“树中两条路径之间的距离”,DeepSeek 就会陷入无限的思考,笔者实测消耗思考时间长达625秒(如下图),输出字数达2万字。这句话并不是复杂且意义不明的乱码,看上去完全就是一个普通的问题,非要挑刺的话,也就是表述得不够完整。



这种无限的重复思考,是模型自身的精神内耗,更会造成算力资源的浪费。如果被黑客滥用,无异于是针对推理模型的 DDoS 攻击。那么大模型的 token 消耗,除了和在线人数和时长有关,还和哪些因素有关呢?


本文仅以 DeepSeek 为例,其他大模型 API 调用的计费规则和影响计费的因子是类似的。


根据 DeepSeek 官方给出的【模型和价格】的计费文档上看[2],API 调用费用和以下参数有关:



此外,联网搜索过程中的搜索请求和对返回的数据处理(在内容生成前前的过程),也会计入 token 使用。但凡唤醒大模型意识的,其实都会消耗 token。


根据这个计费规则,大模型的资源消耗会和以下因素有关:


02 大模型资源消耗的隐形因素

除了上文提到的因素外,还有不少隐形因素会导致大模型应用资源的异常消耗。


代码逻辑漏洞


提示词工程缺陷


生态依赖风险


数据管道缺陷

03 Agent 的资源消耗账本更加复杂

说起 Agent,不得不提最近又火起来的 MCP。


1月,我们科普过《MCP十问|快速理解模型上下文协议》

3月,我们还将发布《MCP 货币化浅析》,欢迎关注 Higress 公众号

MCP 在大模型和第三方数据、API、系统的交互过程中,用单一的标准协议取代碎片化的集成方式[3],是 N x N 向 One for All 的演进,省去了不同外部系统接口代码的重复编写和维护工作,能以更简单、更可靠的方式让人工智能系统获取所需数据。


MCP 出现之前,Agent 需要借助 tool 去对接外部系统,planning 的任务越复杂,调用的外部系统数量和次数会越多,会带来很高的工程化成本。以下方的 Higress AI Agent 的流程图为例,当用户发出“我想在北京五道口附近喝咖啡,请帮推荐一下”,Agent 需要通过 tool 调用高德、点评的 API,若引入模型自我矫正过程,调用频次会进一步增加。


MCP 出现之后,将会加速诞生一波提供 MCP server 提供商。


例如 Firecrawl 今年1月通过与 Cline 平台的集成,正式引入了 MCP 协议,用户通过 Firecrawl 的 MCP 服务器调用其网页全自动爬取能力,避免逐一去对接目标网页的爬取过程,加速 Agent 的发展。昨天 OpenAI 发布 Responses API,并开源Agents SDK,相信 MCP 和 OpenAI 会作为 Agent 重塑劳动力市场的两条故事主线。


我们会越加理解这一观点,“AI 将目标对准的是企业的运营费用,而不是针对传统软件的预算。”点击了解更多2025关于 AI 的前瞻观点。


说回 Agent,相比对话机器人,Agent 的 planing 和执行过程更加复杂,会消耗更多 token,下方是来自知乎作者@tgt制作的图,从中我们可以看到,从输入开始,Agent 的计划、记忆、调用外部系统、执行输出,这些过程都会唤醒大模型,从而消耗 token,如果在输出内容前,再添加自我纠错的过程,以提升输出效果,token 更会成本增加。


近期爆火的 Manus,虽然展示很多执行效果不错的 user case,但带来的是背后算力的巨大消耗。总的来说,Agent 的成熟,会大幅提升对基础模型的调用量。


04 如何控制 token 的异常消耗初探

由于引起模型资源消耗的因素众多且复杂,不仅是一个产品或者方案就可以解决的,需要从事先、事中、事后建立建立完整的工程体系,由于我们仍处于 token 消耗的初期,以下仅作抛砖引玉,相信会看到精益大模型成本的更多实践。

(1)异常调用发生前:预防措施

a. 建立实时监控与阈值预警系统

b. 数据预处理

c. 参数调优


(2)异常调用发生时:实时处理

a. 报警和限流阻断机制

b. 异常调用溯源与隔离


(3)异常调用发生后:恢复与优化

a. 数据补偿与代码修复

b. 攻击溯源与防御策略升级

c. 长期优化措施

05 总结

过去,我们投入了大量时间和精力在基础设施资源利用率的提升上;当下,所有从事 AI Infra 的企业都专注在资源的利用率上,从底层硬件、模型层、推理优化层,以及在往上的网关入口层,这将是一场工程和算法比翼的长跑。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5