Jupyter notebook Tensorflow GPU Memory 釋放


Jupyter notebook Tensorflow GPU Memory 釋放

一、總結

一句話總結:

Jupyter notebook 每次運行完tensorflow的程序,占着顯存不釋放。而又因為tensorflow是默認申請可使用的全部顯存,就會使得后續程序難以運行。

 

 

二、Jupyter notebook Tensorflow GPU Memory 釋放

轉自或參考:Jupyter notebook Tensorflow GPU Memory 釋放
https://www.cnblogs.com/zhsuiy/p/8030651.html

Jupyter notebook 每次運行完tensorflow的程序,占着顯存不釋放。而又因為tensorflow是默認申請可使用的全部顯存,就會使得后續程序難以運行。暫時還沒有找到在jupyter notebook里面自動釋放顯存的方法,但是我們可以做的是通過指定config為使用的顯存按需自動增長,這樣可以避免大多數的問題。代碼如下:

gpu_no = '0' # or '1'
os.environ["CUDA_VISIBLE_DEVICES"] = gpu_no

# 定義TensorFlow配置
config = tf.ConfigProto()

# 配置GPU內存分配方式,按需增長,很關鍵
config.gpu_options.allow_growth = True

# 配置可使用的顯存比例
config.gpu_options.per_process_gpu_memory_fraction = 0.1

# 在創建session的時候把config作為參數傳進去
sess = tf.InteractiveSession(config = config)

參考鏈接: http://blog.csdn.net/leibaojiangjun1/article/details/53671257

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM