原文:论文笔记:蒸馏网络(Distilling the Knowledge in Neural Network)

Distilling the Knowledge in Neural Network Geoffrey Hinton, Oriol Vinyals, Jeff Dean preprint arXiv: . , NIPS Deep Learning Workshop 简单总结 主要工作 What 蒸馏 distillation :把大网络的知识压缩成小网络的一种方法 专用模型 specialist ...

2018-06-11 23:29 0 6711 推荐指数:

查看详情

Distilling the Knowledge in a Neural Network

url: https://arxiv.org/abs/1503.02531 year: NIPS 2014   简介 将大模型的泛化能力转移到小模型的一种显而易见的方法是使用由大模型产生的类概率作为训练小模型的“软目标”  其中, T(temperature, 蒸馏温度), 通常 ...

Mon May 27 04:10:00 CST 2019 0 586
论文笔记《ImageNet Classification with Deep Convolutional Neural Network

一、摘要 了解CNN必读的一篇论文,有些东西还是可以了解的。 二、结构 1、 Relu的好处: 1、在训练时间上,比tanh和sigmod快,而且BP的时候求导也很容易 2、因为是非饱和函数,所以基本不会出现梯度消失的情况 Relu只要控制 ...

Fri Jul 22 05:16:00 CST 2016 0 3574
论文笔记之:Progressive Neural Network Google DeepMind

Progressive Neural Network Google DeepMind   摘要:学习去解决任务的复杂序列 --- 结合 transfer (迁移),并且避免 catastrophic forgetting (灾难性遗忘) --- 对于达到 human-level ...

Thu Oct 27 06:40:00 CST 2016 1 2521
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM