tensorflow 指定使用gpu处理,tensorflow占用多个GPU但只有一个在跑


     我们在刚使用tensorflow的过程中,会遇到这个问题,通常我们有多个gpu,但是

在通过nvidia-smi查看的时候,一般多个gpu的资源都被占满,但是只有一个gpu的GPU-Util

和 219W / 250W(Usage/Cap)会被占满。实际上我们只有一个在跑,但是我们其实只需要

一个卡,其他卡要跑其他的资源,这是后怎么办呢。

可以在环境中就指定gpu机器可见:

如:

import os

os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"

os.environ["CUDA_VISIBLE_DEVICES"] = "3"  (其实,我有4张泰坦,但是我一般用第三张卡,因为四张卡

放在一起挤的不行,第四张卡扇热好,且,我可以用多张卡,跑多个不同模型)

 

但是我想多个卡配合嫩?

import os

os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"

os.environ["CUDA_VISIBLE_DEVICES"] = "0,2,3"  ,这样就指定了第1,3,4,张卡可见了


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM