如火如荼的大模型应用落地,其系统设计中不可或缺的一环便是科学、可落地的评估体系。
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 14px;border-left: none;padding: 0.5em 1em;border-radius: 4px;background: rgba(27, 31, 35, 0.05);margin: 1em 0px;">这不仅是指引效果迭代的依据,更是项目顺利交付的基石。
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 14px;border-left: none;padding: 0.5em 1em;border-radius: 4px;background: rgba(27, 31, 35, 0.05);margin: 1em 0px;">因此,一套完善的评测框架至关重要。
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 14px;border-left: none;padding: 0.5em 1em;border-radius: 4px;background: rgba(27, 31, 35, 0.05);margin: 1em 0px;">其核心在于:业务方需根据自身客户诉求与实现难度,设计类似GAIA的多等级定制化测试集;而交付方则需确保在双方约定的、固定数据集上的整体准确率达标。
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 18px;font-weight: bold;margin: 0px auto 1em;padding: 0px 1em;border-bottom: 3px solid rgb(0, 152, 116);">可评估性与Benchmark挑战评估AI Agent的能力比评估单轮问答的LLM更加复杂。 后者通常用准确率、BLEU等指标衡量固定输出是否正确,而Agent可能涉及交互过程、中间产出以及最终结果的综合评判。 例如,一个Agent可能通过不同路线完成任务:有的步骤多但很稳妥,有的步数少但冒风险。我们需要既看它是否完成任务,也看用多长时间/步骤、是否高效、过程是否符合规范等。 因此,一套完善的评测框架至关重要。
目前比较通用的评估标准是GAIA基准(前期出现的 Manus 使用的就是)。
GAIA,是一个通用人工智能助手的基准测试。如果能解决这个测试,那将是人工智能研究的一个重要里程碑。GAIA提出了一些真实世界中的问题,这些问题需要一系列基本的能力,比如推理、多模态处理、网页浏览,以及一快捷的工具使用技巧。对人类来说,GAIA的问题在概念上很简单,但对大多数高级人工智能来说却很有挑战性:人类回答者的正确率达到92%。
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 14px;border-left: none;padding: 0.5em 1em;border-radius: 4px;background: rgba(27, 31, 35, 0.05);margin: 1em 0px;">除了GAIA,OpenAI、Meta等也在内部制定更细粒度的Agent评估指标,如工具调用的准确率、无用动作比例、错误恢复能力等等。
然而,评估仍然存在挑战:
未来,我们可能需要多维评估,比如用雷达图形式描述Agent在知识、推理、工具、速度、安全等维度的表现,以全面刻画其实力。
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 14px;border-left: none;padding: 0.5em 1em;border-radius: 4px;background: rgba(27, 31, 35, 0.05);margin: 1em 0px;">那么我们如何构建自己应用的评估体系呢? 这就需要需求方(PM、PDSA)与客户定好需求范围、支持力度等。 我们不妨先看看 GAIA 是怎么定义评估标准的
ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 18px;font-weight: bold;margin: 0px auto 1em;padding: 0px 1em;border-bottom: 3px solid rgb(0, 152, 116);">GAIA评测内容GAIA的评测分为三个维度,从一级到三级难度递增,可全方位评测一个AI agent的能力
Level 1. 难度约为:5 steps within + 1 tool,如图所示仅要求agent在指定网站进行查询即可
Level 2. 难度约为:5-10 steps within + multiple tools 如图所示,
GAIA的核心价值在于其“分级评测”的理念,这正是业务方构建自身评估体系时需要借鉴的关键。GAIA通过三个难度递增的等级全方位评测Agent能力:
GAIA的核心启示在于:
那么,如何构建符合自身业务需求的评估体系?关键在于:业务方(PM/PDSA)需与客户紧密协作,深入理解其核心诉求与任务实现的预期难度。以此为基础,模拟GAIA的分级思想,量身定制多等级测试集。
例如:
与此同时,交付方的核心责任在于:与客户明确约定,针对上述定义好的、固定的多等级测试集,达成预设的、可量化的整体准确率目标。这确保了评估的客观性、可衡量性,并聚焦于满足双方约定的核心交付成果。
评估AI Agent虽具挑战,但路已逐渐清晰。业务成功落地的核心在于:摒弃追求通用基准的高分,转而深度理解客户需求,构建反映自身业务场景难度的多级测试集(仿GAIA思路)。同时,清晰界定交付目标——即在双方共同约定的、固定的测试数据集上,实现可验证的整体准确率承诺。这种务实、定制化的评估方法,才是驱动效果迭代和保障项目成功交付的坚实基石。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |