Tensorflow中tf.ConfigProto()詳解


參考Tensorflow Machine Leanrning Cookbook

tf.ConfigProto()主要的作用是配置tf.Session的運算方式,比如gpu運算或者cpu運算

具體代碼如下:

import tensorflow as tf

session_config = tf.ConfigProto(
log_device_placement=True,
inter_op_parallelism_threads=0,
intra_op_parallelism_threads=0,
allow_soft_placement=True)

sess = tf.Session(config=session_config)

a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2,3], name='b')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3,2], name='b')

c = tf.matmul(a,b)
print(sess.run(c))

 


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20

 

具體解釋

log_device_placement=True

設置為True時,會打印出TensorFlow使用了那種操作


inter_op_parallelism_threads=0

設置線程一個操作內部並行運算的線程數,比如矩陣乘法,如果設置為0,則表示以最優的線程數處理


intra_op_parallelism_threads=0

設置多個操作並行運算的線程數,比如 c = a + b,d = e + f . 可以並行運算


allow_soft_placement=True

有時候,不同的設備,它的cpu和gpu是不同的,如果將這個選項設置成True,那么當運行設備不滿足要求時,會自動分配GPU或者CPU。

 


其他選項

當使用GPU時候,Tensorflow運行自動慢慢達到最大GPU的內存

session_config.gpu_options.allow_growth = True
1


當使用GPU時,設置GPU內存使用最大比例

session_config.gpu_options.per_process_gpu_memory_fraction = 0.4
1


是否能夠使用GPU進行運算

tf.test.is_built_with_cuda()
1

 


另外的處理方法

import tensorflow as tf

sess = tf.Session()

with tf.device('/cpu:0'):
a = tf.constant([1.0, 3.0, 5.0], shape=[1, 3])
b = tf.constant([2.0, 4.0, 6.0], shape=[3, 1])

with tf.device('/gpu:0'):
c = tf.matmul(a, b)
c = tf.reshape(c, [-1])

with tf.device('/gpu:0'):
d = tf.matmul(b, a)
flat_d = tf.reshape(d, [-1])

combined = tf.multiply(c, flat_d)
print(sess.run(combined))
---------------------
作者:泥石流中的一股清流
來源:CSDN
原文:https://blog.csdn.net/qq_31261509/article/details/79746114
版權聲明:本文為博主原創文章,轉載請附上博文鏈接!


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM