链载Ai

标题: AI系列-谈测试团队自建私有大模型VS使用通用大模型 [打印本页]

作者: 链载Ai    时间: 昨天 11:16
标题: AI系列-谈测试团队自建私有大模型VS使用通用大模型

前言

人工智能飞速发展,大模型(Large Language Models, LLMs)在各行各业的应用日益广泛。对于测试团队而言,在寻求借助AI技术辅助日常工作的过程中,常常会面临一个关键问题:是自建私有开源大模型,还是使用市场上的通用大模型?本文将尝试对此进行深入分析和建议。酷家乐测试团队有借助AI辅助工作的实践,8-9月我们组织系列专题文章的分享,大家可以持续关注公众号更新。

私域大模型搭建成本

如果要搭建能力近似于GPT3的大模型,即便软件层面现在许多开源大模型可供选择,但仍面临一些典型的问题,下面进行分解。

高昂的初期投入

复杂的技术挑战

灵活性和可扩展性的限制

综上所述私域大模型不是一个普通团队可以轻易启动的工程,回归通用大模型是正途,针对通用模型存在的问题,滋生了RAG+通用大模型的方案,尤其对测试团队非常适合用这种结构来解决问题

RAG模式对比私有大模型的优点

通用大模型无法识别个性化的业务信息,只能借助提示词来传递,为了有针对性的筛选高价值信息传递给大模型,结合知识库的RAG(Retrieval-Augmented Generation,检索增强生成)就发展起来

RAG模式优点主要体现在以下几个方面:

提升回答准确性和相关性

增强知识覆盖和领域适应性

提高模型的可控性和可解释性

降低数据安全和隐私风险

优化资源利用和成本效益

综上所述,使用RAG+通用大模型能够显著提升模型的回答准确性、知识覆盖能力、可控性、可解释性以及资源利用效率,同时降低数据安全和隐私风险,为自然语言处理领域的应用提供了更加全面和强大的支持。

使用RAG+通用大模型的缺点

  1. 信息安全的问题,把敏感信息投喂到通用大模型仍旧是存在风险的,大体上大部分企业的测试脚本和测试数据存在的敏感数据有限,除非是本身就要高度保密的业务,不适合这种场景。

  2. 访问稳定性和确定性的问题

    1. 大模型版本和数据不是控制在自己手中,返回结果存在不确定性。

    2. 访问国外的大模型仍然存在各种限制,可能导致API的稳定性。

测试团队借助大模型可做的方向

总结






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5