tensorflow 指定使用gpu處理,tensorflow占用多個GPU但只有一個在跑


     我們在剛使用tensorflow的過程中,會遇到這個問題,通常我們有多個gpu,但是

在通過nvidia-smi查看的時候,一般多個gpu的資源都被占滿,但是只有一個gpu的GPU-Util

和 219W / 250W(Usage/Cap)會被占滿。實際上我們只有一個在跑,但是我們其實只需要

一個卡,其他卡要跑其他的資源,這是后怎么辦呢。

可以在環境中就指定gpu機器可見:

如:

import os

os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"

os.environ["CUDA_VISIBLE_DEVICES"] = "3"  (其實,我有4張泰坦,但是我一般用第三張卡,因為四張卡

放在一起擠的不行,第四張卡扇熱好,且,我可以用多張卡,跑多個不同模型)

 

但是我想多個卡配合嫩?

import os

os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"

os.environ["CUDA_VISIBLE_DEVICES"] = "0,2,3"  ,這樣就指定了第1,3,4,張卡可見了


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM