batch_size就是為了讓模型根據每個batch,去計算梯度,太大太小都不行,這個對模型的擬合是非常非常重要的
training sample=2918時,batch_size = 256無論怎么訓練,都無法擬合(或者應該shuffle?)
而設置成64的時候,雖然訓練比較慢,但是最終的擬合結果很好
batch_size就是為了讓模型根據每個batch,去計算梯度,太大太小都不行,這個對模型的擬合是非常非常重要的
training sample=2918時,batch_size = 256無論怎么訓練,都無法擬合(或者應該shuffle?)
而設置成64的時候,雖然訓練比較慢,但是最終的擬合結果很好
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。