|
刚刚,官方公告,Claude Sonnet 4 的上下文窗口扩大到了 100 万 tokens,是之前的 5 倍。 这意味着什么?简单说,现在它可以一次读懂整个代码库(7.5 万行代码)或几十篇论文。这听起来很技术,但实际应用场景更有意思。 痛点:记忆力不够用 之前的 AI 就像一个只有短期记忆的顾问,你得反复告诉它背景信息。想让它分析大项目?需要拆成无数个小块,然后祈祷它不要遗忘前面说过的内容。 现在能干什么 - 代码分析:把整个项目扔给它,它能看懂架构,找到文件间的依赖关系,给出改进建议
- 文档处理:批量分析合同、研究报告,找出不同文档间的关联
- 长对话代理:在几百次工具调用中保持上下文,不会「失忆」
成本考虑 超过 20 万 tokens 后价格翻倍(输入从3涨到6,输出从15涨到22.5),不过配合缓存和批处理还能省点钱。 真实反馈 Bolt.new 说这让开发者能在更大项目上保持高精度。iGent AI 说这让 AI 工程师可以进行「多天会话」处理真实代码库。 听起来不错,但关键问题是:大多数任务真的需要这么长的上下文吗?还是这又是一个「参数越大越好」的军备竞赛? 目前只对 Tier 4 用户开放测试,Amazon Bedrock 可用,Google Cloud 即将跟进。 那么,“又”Rag死了吗? Agent失效到高效运行的完整指南" target="_blank" data-linktype="2">上下文管理:从Agent失效到高效运行的完整指南 |