原文:論文筆記:蒸餾網絡(Distilling the Knowledge in Neural Network)

Distilling the Knowledge in Neural Network Geoffrey Hinton, Oriol Vinyals, Jeff Dean preprint arXiv: . , NIPS Deep Learning Workshop 簡單總結 主要工作 What 蒸餾 distillation :把大網絡的知識壓縮成小網絡的一種方法 專用模型 specialist ...

2018-06-11 23:29 0 6711 推薦指數:

查看詳情

Distilling the Knowledge in a Neural Network

url: https://arxiv.org/abs/1503.02531 year: NIPS 2014   簡介 將大模型的泛化能力轉移到小模型的一種顯而易見的方法是使用由大模型產生的類概率作為訓練小模型的“軟目標”  其中, T(temperature, 蒸餾溫度), 通常 ...

Mon May 27 04:10:00 CST 2019 0 586
論文筆記《ImageNet Classification with Deep Convolutional Neural Network

一、摘要 了解CNN必讀的一篇論文,有些東西還是可以了解的。 二、結構 1、 Relu的好處: 1、在訓練時間上,比tanh和sigmod快,而且BP的時候求導也很容易 2、因為是非飽和函數,所以基本不會出現梯度消失的情況 Relu只要控制 ...

Fri Jul 22 05:16:00 CST 2016 0 3574
論文筆記之:Progressive Neural Network Google DeepMind

Progressive Neural Network Google DeepMind   摘要:學習去解決任務的復雜序列 --- 結合 transfer (遷移),並且避免 catastrophic forgetting (災難性遺忘) --- 對於達到 human-level ...

Thu Oct 27 06:40:00 CST 2016 1 2521
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM