链载Ai

标题: 从零开始学大模型,什么,GAN也能用于知识蒸馏?知识蒸馏算法之Adversarial distillation!! [打印本页]

作者: 链载Ai    时间: 昨天 09:30
标题: 从零开始学大模型,什么,GAN也能用于知识蒸馏?知识蒸馏算法之Adversarial distillation!!

ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;display: table;border-bottom: 2px solid rgb(15, 76, 129);color: rgb(63, 63, 63);visibility: visible;">引言

Adversarial distillation,对抗性知识蒸馏,结合了对抗学习的理念和传统的知识蒸馏方法,以促进学生模型(简化模型)更好地模仿教师模型(复杂模型)的行为和知识。这种方法的核心是通过对抗的方式,提高学生模型对数据分布和教师模型特征的学习能力。

ingFang SC", Cambria, Cochin, Georgia, Times, "Times New Roman", serif;border-left: 3px solid rgb(15, 76, 129);color: rgb(63, 63, 63);">基本原理

对抗性知识蒸馏通常包含以下几个步骤:


  1. 教师模型和学生模型的建立:首先,需要一个已经训练好的教师模型和一个结构简化的学生模型。

  2. 生成器和鉴别器的使用:






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5