RuntimeError: Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=True when calling backward the first time.


报错:

 

 修改:

model.module.optimizer_G.zero_grad()
loss_G.backward()
model.module.optimizer_G.step()
为:
model.module.optimizer_G.zero_grad()
loss_G.backward(retain_graph=True)
model.module.optimizer_G.step()
问题解决。


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM