|
今日美团发布他们家最新的模型Longcat-Flash-Thinking,在保持高效的同时在逻辑、数学、代码、智能体等多个领域的推理任务中,达到了全球开源模型的最先进水平(SOTA)!
给我印象最深的就是他这个深度思考模型还支持工具调用,大家都知道DeepSeek的深度思考一直不支持工具调用!详情可看官方宣发: LongCat-Flash-Thinking 正式发布,更强、更专业,保持极速!
按照官方表述LiveCodeBench达到了79.4,超越Gemini-2.5-Pro,逼近OpenAI GPT-5-Thinking 80.6!
既然这么强,必须vibe coding,而且他家也支持接入claude code,就是这个token速度,500万感觉分分钟就没了! 废话不多说,手把手白嫖500万教程来了!首先,登陆美团龙猫平台:
https://longcat.chat/platform/usage 刚登陆只有10万 token,然后点击申请更多额度,如下图所示,填写必须信息!最后会提示申请成功,30分钟内就会审核通过!接入claude code!可以看一下我们在kimi配置claude code的附录部分,只需要修改地址为:https://api.longcat.chat/anthropic |