指定GPU訓練模型


公司或者實驗室當大家都共用一台服務器時,訓練模型的時候如果不指定GPU,往往會沖突。

我們可以先用

nvidia-smi

查看有多少塊GPU,

然后分兩種方式指定GPU運行。

1、直接在終端運行時加入相關語句實現指定GPU的使用

CUDA_VISIBLE_DEVICES=0 python test.py
# 表示運行test.py文件時,使用編號為0的GPU卡
CUDA_VISIBLE_DEVICES=0,2 python test.py
# 表示運行test.py文件時,使用編號為0和2的GPU卡

2、在Python程序中添加

import os
# 使用第一張與第三張GPU卡
os.environ["CUDA_VISIBLE_DEVICES"] = "0, 2"

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM