由於顯卡限制batch size,通過梯度累積優化彌補。
在訓練的時候先累積多個batch的梯度,然后進行反向傳播。
網絡中的bn層會對梯度累積造成一定的影響。
pytorch網絡,如果bn層對整體模型影響不大,可以在訓練時也用model.eval()凍結bn層。
由於顯卡限制batch size,通過梯度累積優化彌補。
在訓練的時候先累積多個batch的梯度,然后進行反向傳播。
網絡中的bn層會對梯度累積造成一定的影響。
pytorch網絡,如果bn層對整體模型影響不大,可以在訓練時也用model.eval()凍結bn層。
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。