今日美团发布他们家最新的模型Longcat-Flash-Thinking,在保持高效的同时在逻辑、数学、代码、智能体等多个领域的推理任务中,达到了全球开源模型的最先进水平(SOTA)!
给我印象最深的就是他这个深度思考模型还支持工具调用,大家都知道DeepSeek的深度思考一直不支持工具调用!详情可看官方宣发:
LongCat-Flash-Thinking 正式发布,更强、更专业,保持极速!
按照官方表述LiveCodeBench达到了79.4,超越Gemini-2.5-Pro,逼近OpenAI GPT-5-Thinking 80.6!
既然这么强,必须vibe coding,而且他家也支持接入claude code,就是这个token速度,500万感觉分分钟就没了!
废话不多说,手把手白嫖500万教程来了!首先,登陆美团龙猫平台:
https://longcat.chat/platform/usage
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |