|
香港大学与NVIDIA团队发现搭建智能体工作流的两个关键问题:仅靠提示词工程的工作流存在性能天花板,同时,静态路由策略还会导致资源浪费。
针对于此,他们通过其ToolOrchestra框架强化学习训练了一个8B参数的调度模型(Orchestrator-8B),在三个基准测试中表现突出:
- HLE(人类最后一考):37.1%准确率,超越GPT-5的35.1%
- τ²-Bench:成本降低70%的情况下准确率更高
研究团队发现传统工作流存在两个典型缺陷: - 自我增强偏见:过度调用自身简化版模型(如GPT-5-mini被调用占比达66%)
而ToolOrchestra的解决的核心在于端到端强化学习训练,方案上:
- 支持长周期决策,能自主判断何时调用何种工具(包括本地搜索、代码解释器、专业大模型等)
团队还开源了完整训练数据集ToolScale,覆盖10个领域(金融、体育、电商等),包含4063个多轮工具调用任务。数据生成采用两步流程:先模拟真实环境(数据库schema和API),再生成多样化任务。包含10个领域的数千条多轮工具调用记录。 有开发者尝试部署后反馈,在电影票务系统等需要多步操作的场景中,响应速度比传统方案快2-3倍。 |