公司或者實驗室當大家都共用一台服務器時,訓練模型的時候如果不指定GPU,往往會沖突。
我們可以先用
nvidia-smi
查看有多少塊GPU,
然后分兩種方式指定GPU運行。
1、直接在終端運行時加入相關語句實現指定GPU的使用
CUDA_VISIBLE_DEVICES=0 python test.py # 表示運行test.py文件時,使用編號為0的GPU卡 CUDA_VISIBLE_DEVICES=0,2 python test.py # 表示運行test.py文件時,使用編號為0和2的GPU卡
2、在Python程序中添加
import os # 使用第一張與第三張GPU卡 os.environ["CUDA_VISIBLE_DEVICES"] = "0, 2"