知识蒸馏(Knowledge Distillation),又称模型蒸馏,是一种基于教师-学生模型的人工智能模型压缩技术,通过将大型教师模型的知识迁移至小型学生模型,实现降低部署成本并提升推理效率的目标。教师模型可以是单个复杂模型或多个集成模型,学生模型为新建的轻量级模型,两者均需具备输入到概率输出的映射能力。该技术核心采用教师模型输出的软目标指导学生模型训练,通过温度参数提取概率分布中的细节信息,...
知识蒸馏(Knowledge Distillation),又称模型蒸馏,是一种基于教师-学生模型的人工智能模型压缩技术,通过将大型教师模型的知识迁移至小型学生模型,实现降低部署成本并提升推理效率的目标。教师模型可以是单个复杂模型或多个集成模型,学生模型为新建的轻量级模型,两者均需具备输入到概率输出的映射能力。该技术核心采用教师模型输出的软目标指导学生模型训练,通过温度参数提取概率分布中的细节信息,...