昨天DeepSeek又悄咪咪的更新了,这次是继3-28以后,再次更新了deepseek v 系列模型。 ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;color: rgb(63, 63, 63);"> ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;margin: 0.1em auto 0.5em;border-radius: 8px;box-shadow: rgba(0, 0, 0, 0.1) 0px 4px 8px;" title="null"/>ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;color: rgb(63, 63, 63);"> ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;margin: 0.1em auto 0.5em;border-radius: 8px;box-shadow: rgba(0, 0, 0, 0.1) 0px 4px 8px;" title="null"/>ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">我比较关注3个更新点:ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;color: rgb(63, 63, 63);" class="list-paddingleft-1">ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;text-indent: -1em;display: block;margin: 0.5em 8px;color: rgb(63, 63, 63);">• 超长上下文支持(128k):代表着我不管写代码还是处理问题,能够承载的上下文越多,连贯性越好ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;text-indent: -1em;display: block;margin: 0.5em 8px;color: rgb(63, 63, 63);">ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 16px;text-indent: -1em;display: block;margin: 0.5em 8px;color: rgb(63, 63, 63);">ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;padding-left: 12px;color: rgb(63, 63, 63);">超长上下文支持我在网上随便找了一篇小说《了不起的盖茨》,212kb的文本,106788 characters
    大概只有95k~100k tokens, 如果这个是准确的,输入占用87/128 ≈ 68% ,大约预留了1/3给响应。所以输入上下文知识只有87kb左右。更精准的知识问答 deepseek v3.1 能根据文档进行精准的回答,并告知引用了哪里。 然后我在文档中加载了一些信息,比如:盖茨比改名为鱼翔空。
   代码能力在aider 的多语言代码评测的github上,有一个deepseek v3.1的 pr, https://github.com/Aider-AI/aider/pull/4464/commits/9d9625623484969ff327a2542446a94be7f37e66 我用chatgpt将该pr的指标转成和官网上的一致。https://aider.chat/docs/leaderboards/
  已经接近于claude-opus-4-20250514 (32k thinking)模型了,就差了0.4%,但是成本只有它的1/65。代码能力,评测是一回事,实际使用是另一回事,后续只能在实战过程中慢慢体会。
数学逻辑 数学题理解错误了,按照上面的语义,A和B同时开的,它直接把A给关闭了,按照他的推理,如果严谨的话应该2个答案,直接给了一个答案,而且是我理解不应该的答案。 需要注意的是,以前深度思考R1现在是深度思考,猜测deepseek 后续会将两个模型合并。大家期待的R2估计会改名了。 |