optimizerG = optim.Adam(netG.parameters(), lr=opt.lr_g, betas=(opt.beta1, 0.999))
torch.optim.lr_scheduler.MultiStepLR(optimizer=optimizerG,milestones=[1600],gamma=opt.gamma)
torch.optim.lr_scheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=-1)
milestones為一個數組,如 [50,70]. gamma為倍數。如果learning rate開始為0.01 ,則當epoch為50時變為0.001,epoch 為70 時變為0.0001。
當last_epoch=-1,設定為初始lr。
參考博客: