前言 人工智能飞速发展,大模型(Large Language Models, LLMs)在各行各业的应用日益广泛。对于测试团队而言,在寻求借助AI技术辅助日常工作的过程中,常常会面临一个关键问题:是自建私有开源大模型,还是使用市场上的通用大模型?本文将尝试对此进行深入分析和建议。酷家乐测试团队有借助AI辅助工作的实践,8-9月我们组织系列专题文章的分享,大家可以持续关注公众号更新。
私域大模型搭建成本 如果要搭建能力近似于GPT3的大模型,即便软件层面现在许多开源大模型可供选择,但仍面临一些典型的问题,下面进行分解。
高昂的初期投入 硬件资源需求 :自建私有开源大模型需要大量的计算资源和存储空间,这通常需要购买高性能的GPU服务器或云计算资源,成本较高。结合机房和电费成本,这可能是一笔不小的负担。对于测试组的访问量通常较小,完全不足以cover住成本。
人才和技术门槛 :自建模型需要专业的技术人才,包括数据科学家、机器学习工程师等,他们需要掌握先进的算法和模型训练技术。如果公司内部缺乏这些人才,还需要额外招聘或培训,进一步增加成本,对于没有独立大模型部门的公司,这一点会成为重要瓶颈,既懂大模型又懂测试行业的人非常少。
复杂的技术挑战 灵活性和可扩展性的限制 综上所述私域大模型不是一个普通团队可以轻易启动的工程,回归通用大模型是正途,针对通用模型存在的问题,滋生了RAG+通用大模型的方案,尤其对测试团队非常适合用这种结构来解决问题
RAG模式对比私有大模型的优点 通用大模型无法识别个性化的业务信息,只能借助提示词来传递,为了有针对性的筛选高价值信息传递给大模型,结合知识库的RAG(Retrieval-Augmented Generation,检索增强生成)就发展起来
RAG模式优点主要体现在以下几个方面:
提升回答准确性和相关性 增强知识覆盖和领域适应性 提高模型的可控性和可解释性 降低数据安全和隐私风险 优化资源利用和成本效益 综上所述,使用RAG+通用大模型能够显著提升模型的回答准确性、知识覆盖能力、可控性、可解释性以及资源利用效率,同时降低数据安全和隐私风险,为自然语言处理领域的应用提供了更加全面和强大的支持。
使用RAG+通用大模型的缺点 信息安全的问题,把敏感信息投喂到通用大模型仍旧是存在风险的,大体上大部分企业的测试脚本和测试数据存在的敏感数据有限,除非是本身就要高度保密的业务,不适合这种场景。
访问稳定性和确定性的问题
大模型版本和数据不是控制在自己手中,返回结果存在不确定性。
访问国外的大模型仍然存在各种限制,可能导致API的稳定性。
测试团队借助大模型可做的方向 总结