Unlock the full potential of your projects.
Try MeisterTask for free.
Vous n'avez pas de compte ?
Inscription gratuite
Parcourir
Cartes en vedette
Catégories
Gestion de projet
Objectifs d'affaires
Ressources humaines
Brainstorming et analyse
Marketing et contenu
Éducation et remarques
Loisirs
Vie courante
Technologie
Design
Résumés
Autre
Langues
English
Deutsch
Français
Español
Português
Nederlands
Dansk
Русский
日本語
Italiano
简体中文
한국어
Autre
Montrer carte totale
Copier éditer carte
Copier
2015 Distilling the Knowledge in a Neural Network
YY
Yang Yang
Suivre
Lancez-Vous.
C'est gratuit
S'inscrire avec Google
ou
s'inscrire
avec votre adresse e-mail
Cartes mentales similaires
Plan de carte mentale
2015 Distilling the Knowledge in a Neural Network
par
Yang Yang
1. 名词解释
1.1. teacher - 原始模型或模型ensemble (combersum model) student - 新模型 transfer set - 用来迁移teacher知识、训练student的数据集合 soft target - teacher输出的预测结果(一般是softmax之后的概率) hard target - 样本原本的标签 temperature - 蒸馏目标函数中的超参数 born-again network - 蒸馏的一种,指student和teacher的结构和尺寸完全一样 teacher annealing - 防止student的表现被teacher限制,在蒸馏时逐渐减少soft targets的权重
2. Abstract
2.1. 提高所有机器学习算法性能的一种非常简单的方法就是在相同的数据上训练许多不同的模型,然后对它们的预测进行平均。但是预测成本高且很麻烦。作者引入一种将集成模型的知识蒸馏在单一的模型中的方法取得了不错的效果
3. Introduction
3.1. 在大规模机器学习中,人们通常在训练和推理阶段使用相似的模型,尽管这两个阶段的要求非常不同。如果可以从繁琐的数据中提取结构,那么我们就愿意训练大模型了。蒸馏就是将繁琐的模型转移到更适合部署的小模型。
Lancez-vous. C'est gratuit!
Connectez-vous avec Google
ou
S'inscrire