torch.optim.SGD返回一個優化器類。
sgd=torch.optim.SGD(paramater,lr=0.5);
lr表示學習率,paramater表示參數。
sgd.zero_grad()清除各點的梯度

sgd.step()進行一次優化
torch.optim.SGD返回一個優化器類。
sgd=torch.optim.SGD(paramater,lr=0.5);
lr表示學習率,paramater表示參數。
sgd.zero_grad()清除各點的梯度

sgd.step()進行一次優化
本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。