原文鏈接:https://blog.csdn.net/a632189007/article/details/77978058
keras在使用GPU的時候有個特點,就是默認全部占滿顯存。 這樣如果有多個模型都需要使用GPU跑的話,那么限制是很大的,而且對於GPU也是一種浪費。因此在使用keras時需要有意識的設置運行時使用那塊顯卡,需要使用多少容量。
這方面的設置一般有三種情況:
1. 指定顯卡
2. 限制GPU用量
3. 即指定顯卡又限制GPU用量
查看GPU使用情況語句(linux)
# 1秒鍾刷新一次 watch -n 1 nvidia-smi
一、指定顯卡
import os os.environ["CUDA_VISIBLE_DEVICES"] = "2"
這里指定了使用編號為2的GPU,大家可以根據需要和實際情況來指定使用的GPU
二、限制GPU用量
1、設置使用GPU的百分比
import tensorflow as tf import keras.backend.tensorflow_backend as KTF #進行配置,使用30%的GPU config = tf.ConfigProto() config.gpu_options.per_process_gpu_memory_fraction = 0.3 session = tf.Session(config=config) # 設置session KTF.set_session(session)
需要注意的是,雖然代碼或配置層面設置了對顯存占用百分比閾值,但在實際運行中如果達到了這個閾值,程序有需要的話還是會突破這個閾值。換而言之如果跑在一個大數據集上還是會用到更多的顯存。以上的顯存限制僅僅為了在跑小數據集時避免對顯存的浪費而已。
2、GPU按需使用
import tensorflow as tf import keras.backend.tensorflow_backend as KTF config = tf.ConfigProto() config.gpu_options.allow_growth=True #不全部占滿顯存, 按需分配 session = tf.Session(config=config) # 設置session KTF.set_session(session)
三、指定GPU並且限制GPU用量
這個比較簡單,就是講上面兩種情況連上即可。
import os import tensorflow as tf import keras.backend.tensorflow_backend as KTF # 指定第一塊GPU可用 os.environ["CUDA_VISIBLE_DEVICES"] = "0" config = tf.ConfigProto() config.gpu_options.allow_growth=True #不全部占滿顯存, 按需分配 sess = tf.Session(config=config) KTF.set_session(sess)