链载Ai

标题: 大模型微调:全量微调 VS Lora微调,一篇说清楚 [打印本页]

作者: 链载Ai    时间: 3 小时前
标题: 大模型微调:全量微调 VS Lora微调,一篇说清楚
在人工智能中,模型微调(Fine-tuning)是指把预训练好的模型,在特定任务上进一步训练以提升模型在某一方面的性能的一种方法。下面详细介绍一下两种常见的微调方式:

全量微调



LoRA微调(Low-Rank Adaptation 微调)


总结


这两种方法各有优缺点,选择哪种方法取决于具体任务需求、数据量和可用计算资源、成本等因素。现实当中对于大模型的微调,大多数的企业都是采用Lora微调为主,毕竟大多数企业都没有办法承担得起这么昂贵的算力成本,通常只有建大模型基座的公司才有这么强大的算力资源。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5