花費 5 ms
【零基礎】神經網絡優化之mini-batch

一、前言   回顧一下前面講過的兩種解決過擬合的方法:   1)L0、L1、L2:在向前傳播、反向傳播后面加個小尾巴   2)dropout:訓練時隨機“刪除”一部分神經元   本篇要介紹的優化方法叫mini-batch,它主要解決的問題是:實際應用時的訓練數據往往都太大了,一次加載到電腦 ...

Mon Oct 28 07:12:00 CST 2019 0 676

 
粵ICP備18138465號   © 2018-2026 CODEPRJ.COM