這個是因為沒有將requires_grad設為True,l=LOSS(out,label)中的l默認是requires_grad為false,這個l其實也是一個張量Tensor類型,將其的requires_grad改為True后,使用backward函數就可以得到requires_grad為True的所有參數的梯度。
上面的loss = loss.requires_grad_(),是我添加的部分。
本錯誤糾正的參考的內容如下:
這個是因為沒有將requires_grad設為True,l=LOSS(out,label)中的l默認是requires_grad為false,這個l其實也是一個張量Tensor類型,將其的requires_grad改為True后,使用backward函數就可以得到requires_grad為True的所有參數的梯度。
上面的loss = loss.requires_grad_(),是我添加的部分。
本錯誤糾正的參考的內容如下:
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。