關於 epoch、 iteration和batchsize


原文: http://blog.csdn.net/sinat_30071459/article/details/50721565

深度學習中經常看到epoch、 iteration和batchsize,下面按自己的理解說說這三個的區別:

 

(1)batchsize:批大小。在深度學習中,一般采用SGD訓練,即每次訓練在訓練集中取batchsize個樣本訓練;

(2)iteration:1個iteration等於使用batchsize個樣本訓練一次;

(3)epoch:1個epoch等於使用訓練集中的全部樣本訓練一次;

 

舉個例子,訓練集有1000個樣本,batchsize=10,那么:

訓練完整個樣本集需要:

100次iteration,1次epoch。

 

關於batchsize可以看看這里


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM