pytorch的顯存釋放機制torch.cuda.empty_cache()


Pytorch已經可以自動回收我們不用的顯存,類似於python的引用機制,當某一內存內的數據不再有任何變量引用時,這部分的內存便會被釋放。但有一點需要注意,當我們有一部分顯存不再使用的時候,這部分釋放的顯存通過Nvidia-smi命令是看不到的,舉個例子:

device = torch.device('cuda:0')
# 定義兩個tensor
dummy_tensor_4 = torch.randn(120, 3, 512, 512).float().to(device)  # 120*3*512*512*4/1000/1000 = 377.48M
dummy_tensor_5 = torch.randn(80, 3, 512, 512).float().to(device)  # 80*3*512*512*4/1000/1000 = 251.64M

# 然后釋放
dummy_tensor_4 = dummy_tensor_4.cpu()
dummy_tensor_2 = dummy_tensor_2.cpu()
# 這里雖然將上面的顯存釋放了,但是我們通過Nvidia-smi命令看到顯存依然在占用
torch.cuda.empty_cache()
# 只有執行完上面這句,顯存才會在Nvidia-smi中釋放

Pytorch的開發者也對此進行說明了,這部分釋放后的顯存可以用,只不過不在Nvidia-smi中顯示罷了。

 

 

轉自:

[1] https://blog.csdn.net/qq_29007291/article/details/90451890

[2] https://oldpan.me/archives/pytorch-gpu-memory-usage-track

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM