pytorch中的 requires_grad和volatile


https://blog.csdn.net/u012436149/article/details/66971822

 

簡單總結其用途

(1)requires_grad=Fasle時不需要更新梯度, 適用於凍結某些層的梯度;

 (2)volatile=True相當於requires_grad=False,適用於推斷階段,不需要反向傳播。這個現在已經取消了,使用with torch.no_grad()來替代

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM