链载Ai

标题: Claude Sonnet 4 上下文翻 5 倍!100 万 token 能处理更大型代码库,AI 代码分析起飞。 [打印本页]

作者: 链载Ai    时间: 昨天 19:15
标题: Claude Sonnet 4 上下文翻 5 倍!100 万 token 能处理更大型代码库,AI 代码分析起飞。

Claude Sonnet 4 也加入了“百万 token 俱乐部”,现在跟 Gemini 一样,都支持 100 万上下文了。

上下文容量直接翻了 5 倍,现在能一次性塞进整个代码库或者几十篇论文。

价格也变了,超过 200K token 就按新价格算:输入 15/M tok (贵 5 倍),输出 22.5/M tok (贵 1.5 倍)。注意,最强的 Opus 模型还没这待遇。

不过这功能还在 Beta,想用的话有几个门槛和限制:

百万上下文有多大?大概 75 万个单词,或者 7.5 万行代码。好处是 AI 能看懂项目结构,跨文件追踪,理解长篇需求,不用来回切上下文。

Anthropic 还提到“有效上下文”的概念,就是模型真正理解的部分,不只是存着。这对于长时间跑的 AI 智能体很重要,能减少跑偏和返工。

对比

更长的上下文为 Claude 带来了更广泛、更数据密集型的应用场景。

大规模代码分析方面,开发者可以将整个代码库加载到模型中,让 Claude 理解项目架构、识别依赖关系并提出系统级建议。

文档综合方面,模型可以处理法律合同、研究论文等海量文档,并在完整上下文中进行分析。

智能体构建方面,模型可以在数百次工具调用和多步工作流中保持上下文连贯。

一些客户已经开始使用这一新功能。Bolt.new 的 CEO Eric Simons 表示,Sonnet 3.5 在其代码生成工作流中持续表现优于其他模型,百万上下文使其能够处理更大的项目。

想在 Claude Code 里用上 Sonnet 3.5 的 100 万上下文?有人分享了个技巧:用 `/model sonnet-3.5-20240620-1m` 这个命令就能切换。

不过,这招有前提:






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5