這篇經典論文,甚至可以說是2015年最牛的一篇論文,早就有很多人解讀,不需要自己着摸,但是看了論文原文Batch normalization: Accelerating deep network training by reducing internal covariate shift 和下面的這些解讀之后,還有感覺有些不明白。比如,
是怎么推導出來的,我怎么就是沒搞懂呢?
1.論文翻譯:論文筆記-Batch Normalization
2.博客專家 黃錦池 的解讀:深度學習(二十九)Batch Normalization 學習筆記,這個人解讀了很多最新論文,都比較值得看!
3.happynear的博客: 《Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift》閱讀筆記與實現,里面用matlab用了實驗,但沒有找到代碼,看了他的其他博客,感覺還比較牛
4.深度學習中 Batch Normalization為什么效果好?
7.博客專家 阿里的 張俊林的解讀:Batch Normalization導讀