• LLM是什么?为何评测如此困难?
•用Python评测LLM输出的不同方法
•如何使用DeepEval评测LLM
LLM应用的常见场景包括:
•聊天机器人:客服、虚拟助手、对话代理
•代码助手:代码补全、纠错、调试
•法律文档分析:快速解析合同与法律文本
•个性化邮件起草:基于上下文、收件人和语气生成邮件
LLM应用通常有一个共同点——结合专有数据能显著提升任务处理能力。例如,你可能会想构建一个提升员工生产力的内部聊天机器人,OpenAI显然不会(也不应)追踪你公司的内部数据。
关键在于:确保LLM应用生成理想输出,如今不仅是OpenAI的责任(如保障GPT-4的基础性能),更是开发者的责任。你需要通过提示模板优化,数据检索流程,模型架构选择等实现。
评测的作用在于量化应用的任务处理能力。若无评测机制,迭代过程中可能引入破坏性变更,而手动检查所有输出无异于灾难。
评测LLM输出的一种有效方法,是使用NLP领域的其他机器学习模型。尽管LLM输出具有非确定性,你仍可通过特定模型在多项指标(如事实正确性、相关性、偏见性、帮助性等,此处仅列举部分)上评估输出质量。
例如,自然语言推理模型(NLI,输出蕴含分数)可用于评估回答基于上下文的事实正确性。蕴含分数越高,输出的事实正确性越强——这对评测事实性不明确的长文本尤为实用。
你可能疑惑:这些模型如何“知道”文本是否事实正确?实际上,你可为其提供上下文(称为“基本事实”或“参考答案”)供其参考。这些上下文的集合被称为评测数据集。
但并非所有指标都需要参考。例如,相关性可通过交叉编码器模型(另一种ML模型)计算,仅需输入和输出即可判断二者的相关性。
以下是无参考指标列表:
•相关性(Relevancy)
•总结质量(Summarization)
•偏见(Bias)
•毒性(Toxicity)
•帮助性(Helpfulness)
•无害性(Harmlessness)
•连贯性(Coherence)
以下是有参考指标列表:
•幻觉检测(Hallucination)
•语义相似度(Semantic Similarity)
注意:基于参考的指标无需提供初始输入,因其仅基于提供的上下文评测输出。
当前新兴趋势是利用尖端LLM(如GPT-4)对自身或其他模型进行评测。
G-Eval:基于LLM的评测框架
我将附上G-Eval研究论文中的图示,但简而言之,其流程分为两部分——首先生成评测步骤,随后基于这些步骤输出最终评分。
具体操作示例
步骤一:生成评测步骤
1. 向GPT-4说明任务(例如“根据相关性对摘要进行1-5分评分”)。
2. 明确评分依据(例如“相关性需基于所有句子的综合质量”)。
步骤二:生成评分
1. 将输入、评测步骤、上下文和实际输出合并。
2. 要求模型生成1-5分(5分为最佳)。
3. (可选)提取LLM输出标记的概率值,通过加权求和归一化得分。
步骤3的实际复杂性:要获取输出标记的概率,通常需访问原始模型输出(而非仅最终生成文本)。论文引入此步骤,因其能提供更细粒度的评分,从而更精准反映输出质量。
以下是论文中的图示,助你直观理解上述内容:
结合GPT-4的G-Eval在连贯性、一致性、流畅性及相关性等指标上优于传统评测方法。但需注意,基于LLM的评测往往成本高昂。因此,建议以G-Eval为起点建立性能基准,再在适用场景下过渡至成本效益更优的评测指标。
至此,你可能已被术语淹没,且绝不想从零实现所有内容。试想需研究每个指标的最佳计算方式、训练专用模型并搭建评测框架……
所幸,已有开源工具如ragas和DeepEval提供现成评测框架,省去自研成本。
作为Confident(DeepEval背后的公司)联合创始人,我将厚颜展示如何用DeepEval在CI/CD流水线中对LLM应用进行单元测试(我们提供类似Pytest的开发者体验、简易配置及免费可视化平台)。
让我们通过代码实操收尾。
要运行我们期待的评测流程,请按以下步骤操作:
创建项目文件夹并初始化Python虚拟环境(在终端中运行):
mkdirevals-example
cdevals-example
python3-mvenvvenv
sourcevenv/bin/activate此时你的终端应显示如下提示:
(venv)
运行下面代码:
pipinstalldeepeval
最后,将OpenAI API密钥设为环境变量。后续G-Evals需调用OpenAI接口(本质上是使用LLM进行评测)。在终端中粘贴以下命令(替换为你自己的API密钥):
exportOPENAI_API_KEY="your-api-key-here"
创建名为test_evals.py的文件(注意测试文件需以“test”开头):
touchtest_evals.py
粘贴以下代码:
fromdeepeval.metricsimportGEval,HallucinationMetric
fromdeepeval.test_caseimportLLMTestCase,LLMTestCaseParams
fromdeepevalimportassert_test
deftest_hallucination():
hallucination_metric=HallucinationMetric(minimum_score=0.5)
test_case=LLMTestCase(
input="Whatiftheseshoesdon'tfit?",
actual_output="Weoffera30-dayfullrefundatnoextracosts.",
context=["Allcustomersareeligiblefora30dayfullrefundatnoextracosts."]
)
assert_test(test_case,[hallucination_metric])
deftest_relevancy():
answer_relevancy_metric=AnswerRelevancyMetric(minimum_score=0.5)
test_case=LLMTestCase(
input="Whatdoesyourcompanydo?",
actual_output="Ourcompanyspecializesincloudcomputing"
)
assert_test(test_case,[relevancy_metric])
deftest_humor():
funny_metric=GEval(
name="Humor",
criteria="Howfunnyitis",
evaluation_params=[LLMTestCaseParams.ACTUAL_OUTPUT]
)
test_case=LLMTestCase(
input="Writemesomethingfunnyrelatedtoprogramming",
actual_output="Whydidtheprogrammerquithisjob?Becausehedidn'tgetarrays!"
)
assert_test(test_case,[funny_metric])运行测试:
deepevaltestruntest_evals.py
每个测试用例均对应DeepEval预定义的指标,这些指标输出0-1分的评分。例如,HallucinationMetric(minimum_score=0.5)表示评测输出的事实正确性,其中minimum_score=0.5设定测试通过的阈值为得分>0.5。
逐项解析测试用例:
•“test_hallucination”:评测LLM输出相对于上下文的事实正确性。
•“test_relevancy”:评测输出与输入的相关性。
•“test_humor”:评测LLM输出的有趣程度(使用G-Eval框架,依赖LLM自身进行评测)。
参数说明:单个测试用例最多可包含4个动态参数——
•输入(Input)
•预期输出(Expected Output)
•实际输出(Actual Output,来自你的应用)
•上下文(Context,用于生成实际输出的背景信息)
不同指标对参数的需求各异,部分为必选,部分为可选。
最后,下面是如何在一个测试用例中聚合多个指标的代码:
deftest_everything():
test_case=LLMTestCase(
input="Whatdidthecatdo?",
actual_output="Thecatclimbedupthetree",
context=["Thecatranupthetree."],
expected_output="Thecatranupthetree."
)
assert_test(test_case,[hallucination_metric,relevancy_metric,humor_metric])也没那么难吧?编写足够数量的测试用例(10-20个),你就能显著提升对应用的控制力 。
附加功能:DeepEval支持在CI/CD流水线中对LLM应用进行单元测试。
此外,你可通过以下命令使用DeepEval免费平台:
deepevallogin
按指引操作(登录、获取API密钥、粘贴至CLI),然后重新运行测试:
deepevaltestruntest_example.py
本文你已学习:
•LLM工作原理
•LLM应用实例
•评测LLM输出的难点
•使用DeepEval进行单元测试
通过评测,你可以:
✅ 避免对LLM应用引入破坏性变更
✅ 快速迭代优化关键指标
✅ 对构建的LLM应用充满信心
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |