我們在剛使用tensorflow的過程中,會遇到這個問題,通常我們有多個gpu,但是
在通過nvidia-smi查看的時候,一般多個gpu的資源都被占滿,但是只有一個gpu的GPU-Util
和 219W / 250W(Usage/Cap)會被占滿。實際上我們只有一個在跑,但是我們其實只需要
一個卡,其他卡要跑其他的資源,這是后怎么辦呢。
可以在環境中就指定gpu機器可見:
如:
import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
os.environ["CUDA_VISIBLE_DEVICES"] = "3" (其實,我有4張泰坦,但是我一般用第三張卡,因為四張卡
放在一起擠的不行,第四張卡扇熱好,且,我可以用多張卡,跑多個不同模型)
但是我想多個卡配合嫩?
import os
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
os.environ["CUDA_VISIBLE_DEVICES"] = "0,2,3" ,這樣就指定了第1,3,4,張卡可見了