之前實現了一層的卷積神經網絡,又實現了兩層的卷積神經網絡,接下來把cnn擴展到任意層就不難了。
這難道就是傳說中的“道生一,一生二,二生三,三生萬物”么?=。=
代碼還是在github上。
比較有趣的一點是,我分別用兩層的神經網絡和一層的神經網絡進行了實現,結果如下圖:
兩層的cnn結果:


一層的cnn結果:


可以看到,一層的cnn結果反而比兩層的好,那么很有可能是兩層的cnn出現了過擬合現象。對於mnist這種小數據集,一層的cnn加上一些參數調優絕對是夠用了的。
之前實現了一層的卷積神經網絡,又實現了兩層的卷積神經網絡,接下來把cnn擴展到任意層就不難了。
這難道就是傳說中的“道生一,一生二,二生三,三生萬物”么?=。=
代碼還是在github上。
比較有趣的一點是,我分別用兩層的神經網絡和一層的神經網絡進行了實現,結果如下圖:
兩層的cnn結果:


一層的cnn結果:


可以看到,一層的cnn結果反而比兩層的好,那么很有可能是兩層的cnn出現了過擬合現象。對於mnist這種小數據集,一層的cnn加上一些參數調優絕對是夠用了的。
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。