深度學習中(tensorflow、pytorch)解決GPU使用沖突/搶卡


問題:在運行深度學習模型的時候,總是要nvidia-smi一下看看那塊顯卡比較空閑,很麻煩。
解決方法:寫個bash腳本,每次運行程序的時候,選擇顯存剩余最大的GPU。

#!/bin/bash
n=$(nvidia-smi -q -d Memory|grep -A4 GPU|grep Free |grep -Eo "[0-9]+"|awk '{{printf"%s,",$0}}')
OLD_IFS="$IFS"
IFS=","
n_list=($n)
IFS="$OLD_IFS"

max=${n_list[0]}
max_id=0

for var in ${!n_list[@]}
do
    if [[ ${max} -le ${n_list[$var]} ]];then
    max_id=${var}
    max=${n_list[${var}]}
    echo "gpu $max_id: $max MiB"
    fi
done
echo "finally chose gpu $max_id, reamain memory $max MiB"

# run your command
#python main.py --gpu_id $max_id


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM