花费 66 ms
pytorch, retain_grad查看非叶子张量的梯度

在用pytorch搭建和训练神经网络时,有时为了查看非叶子张量的梯度,比如网络权重张量的梯度,会用到retain_grad()函数。但是几次实验下来,发现用或不用retain_grad()函数,最终神经网络的准确率会有一点点差异。用retain_grad()函数的训练结果会差一些。目前还没有去探究 ...

Fri Jan 08 00:10:00 CST 2021 0 716

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM