tf.Session()函數的參數應用(tensorflow中使用tf.ConfigProto()配置Session運行參數&&GPU設備指定)


版權聲明:本文為博主原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接和本聲明。
本文鏈接:https://blog.csdn.net/dcrmg/article/details/79091941

tf.ConfigProto()函數用在創建session的時候,用來對session進行參數配置:

 

 

config = tf.ConfigProto(allow_soft_placement=True, allow_soft_placement=True)
config.gpu_options.per_process_gpu_memory_fraction = 0.4 #占用40%顯存
sess = tf.Session(config=config)
 

 

1. 記錄設備指派情況 :  tf.ConfigProto(log_device_placement=True)


設置tf.ConfigProto()中參數log_device_placement = True ,可以獲取到 operations 和 Tensor 被指派到哪個設備(幾號CPU或幾號GPU)上運行,會在終端打印出各項操作是在哪個設備上運行的。


2. 自動選擇運行設備 : tf.ConfigProto(allow_soft_placement=True)

在tf中,通過命令 "with tf.device('/cpu:0'):",允許手動設置操作運行的設備。如果手動設置的設備不存在或者不可用,就會導致tf程序等待或異常,為了防止這種情況,可以設置tf.ConfigProto()中參數allow_soft_placement=True,允許tf自動選擇一個存在並且可用的設備來運行操作。


3. 限制GPU資源使用:

 

為了加快運行效率,TensorFlow在初始化時會嘗試分配所有可用的GPU顯存資源給自己,這在多人使用的服務器上工作就會導致GPU占用,別人無法使用GPU工作的情況。

tf提供了兩種控制GPU資源使用的方法,一是讓TensorFlow在運行過程中動態申請顯存,需要多少就申請多少;第二種方式就是限制GPU的使用率。


一、動態申請顯存

 

 

config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config)
 


二、限制GPU使用率

 

 

 

 

config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.4 #占用40%顯存
session = tf.Session(config=config)

或者:

 

 

gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.4)
config=tf.ConfigProto(gpu_options=gpu_options)
session = tf.Session(config=config)
 

 

設置使用哪塊GPU

方法一、在python程序中設置:

 

os.environ['CUDA_VISIBLE_DEVICES'] = '0' #使用 GPU 0
os.environ['CUDA_VISIBLE_DEVICES'] = '0,1' # 使用 GPU 0,1
 


方法二、在執行python程序時候:

CUDA_VISIBLE_DEVICES=0,1 python yourcode.py

推薦使用更靈活一點的第二種方法。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM