pytorch 在测试阶段,进行前向推断时,显存累加溢出问题


1、问题描述:

  pytorch中,在测试阶段进行前向推断运行时,随着for循环次数的增加,显存不断累加变大,最终导致显存溢出。


2、解决方法:
    使用如下代码处理输入数据:

  假设X为模型的输入

  X = X.cuda()

  input_blobs = Variable(X, volatile=True)

  output = model(input_blobs)

  注意: 一定要设置 volatile=True 该参数,否则在for循环过程中,显存会不断累加。


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM