|
 论文地址:https://arxiv.org/pdf/2403.19305代码链接:https://anonymous.4open.science/r/MATEval-EA921 摘要本文提出了一个名为 MATEval 的框架,这是一个基于多 Agent 交互的文本评估框架,其中每个代理都由类似 GPT-4 的 LLM 驱动。MATEval 框架借鉴了人类协作讨论的方式,通过多个代理相互配合来评估非结构化文本。该框架融合了自我反思、思维链(Chain of Thought, CoT)策略以及反馈循环等技术,以增强评估的深度和广度,并引导讨论达成共识。此外,它还能生成详尽的评估报告(涵盖错误定位、错误分类和评分等内容)。 实验结果表明,MATEval 在评估非结构化文本方面优于现有方法,并且与人工评估的一致性最高,这证明了其在减少 LLM 文本评估中的不确定性和不稳定性方面的有效性。不仅如此,MATEval 在工业环境中显著提升了文本评估和模型迭代的效率。2 核心内容2.1 MATEval: 多Agent文本评估框架该系统接收含有缺陷的文本作为输入,通过多个智能体进行自我审视和CoT(Chain of Thought)策略的深入讨论,最终生成一份详尽的评估报告。MATEval 框架主要由具有不同角色的代理和讨论策略组成。其中代理角色包括 Evaluator Agent、Feedback Agent 和 Summarizer Agent,他们协作完成文本评估任务。Evaluator Agent 是评估任务中的主要实体;Feedback Agent 在提高讨论质量、促进共识方面起着至关重要的作用;Summarizer Agent 在整合讨论信息、总结和形成评估报告中是必不可少的。(1)Evaluator Agent作为框架内的核心评估单元,它负责执行连续的文本评审工作。该评估实体利用预先设定的提示来引导对话,同时收集并分析其他实体提供的信息,进而参照这些数据来维护对话的历史记录。智能体在每次讨论结束后,会分析讨论的内容和质量,专注于发现效率低下的对话和存在的分歧,并提出优化建议,旨在提升未来讨论的效率和达成共识的可能性。(3)Summarizer Agent在讨论环节全部结束后,智能体将承担起梳理整个讨论流程及其成果的责任,编制一份详尽的评估报告。报告中将涵盖错误分类、错误所在位置、相关解释以及得分情况。(4)Self-reflection在每次讨论环节中,智能体将进行自我审视,吸纳同伴的观点以深化对议题的认识,并据此优化自己的表述。(5)CoT通过提供线索来指导智能体独立地拆解问题,并且在每次对话中集中精力解决一个具体问题,以此实现对文本内容的深入探讨。在每次讨论的尾声,反馈系统会通过建议来帮助智能体进行总结和评估,以优化未来的讨论,避免内容的重复,以此来提升讨论的效率,并协助参与者形成统一共识。(7)OutputMATEval 框架配备了两种评估报告形式:一种是问答式的,便于评估相似度和关联性得分;另一种是文本形式的报告,便于业务团队迅速把握内容并优化模型。3 总结提出了MATEval框架,它能够提供详尽的诊断报告,提高了 LLM 生成文本评分的准确性和可靠性。该框架不仅加速了工业环境中的模型迭代,还提升了审查效率。 在多智能体框架中创新性地整合了自我反思和CoT方法,并在讨论结束后引入了反馈机制,以解决分歧并促进共识。 在两个英文和两个中文文本数据集上进行了全面实验。实验结果证明了该框架的有效性并且评估结果与人类评估的结果高度一致。
|