刚刚,官方公告,Claude Sonnet 4 的上下文窗口扩大到了 100 万 tokens,是之前的 5 倍。
这意味着什么?简单说,现在它可以一次读懂整个代码库(7.5 万行代码)或几十篇论文。这听起来很技术,但实际应用场景更有意思。
痛点:记忆力不够用
之前的 AI 就像一个只有短期记忆的顾问,你得反复告诉它背景信息。想让它分析大项目?需要拆成无数个小块,然后祈祷它不要遗忘前面说过的内容。
现在能干什么
成本考虑
超过 20 万 tokens 后价格翻倍(输入从3涨到6,输出从15涨到22.5),不过配合缓存和批处理还能省点钱。
真实反馈
Bolt.new 说这让开发者能在更大项目上保持高精度。iGent AI 说这让 AI 工程师可以进行「多天会话」处理真实代码库。
听起来不错,但关键问题是:大多数任务真的需要这么长的上下文吗?还是这又是一个「参数越大越好」的军备竞赛?
目前只对 Tier 4 用户开放测试,Amazon Bedrock 可用,Google Cloud 即将跟进。
那么,“又”Rag死了吗?
Agent失效到高效运行的完整指南" target="_blank" data-linktype="2">上下文管理:从Agent失效到高效运行的完整指南
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |