Jupyter notebook Tensorflow GPU Memory 釋放
一、總結
一句話總結:
Jupyter notebook 每次運行完tensorflow的程序,占着顯存不釋放。而又因為tensorflow是默認申請可使用的全部顯存,就會使得后續程序難以運行。
二、Jupyter notebook Tensorflow GPU Memory 釋放
轉自或參考:Jupyter notebook Tensorflow GPU Memory 釋放
https://www.cnblogs.com/zhsuiy/p/8030651.html
Jupyter notebook 每次運行完tensorflow的程序,占着顯存不釋放。而又因為tensorflow是默認申請可使用的全部顯存,就會使得后續程序難以運行。暫時還沒有找到在jupyter notebook里面自動釋放顯存的方法,但是我們可以做的是通過指定config為使用的顯存按需自動增長,這樣可以避免大多數的問題。代碼如下:
gpu_no = '0' # or '1'
os.environ["CUDA_VISIBLE_DEVICES"] = gpu_no
# 定義TensorFlow配置
config = tf.ConfigProto()
# 配置GPU內存分配方式,按需增長,很關鍵
config.gpu_options.allow_growth = True
# 配置可使用的顯存比例
config.gpu_options.per_process_gpu_memory_fraction = 0.1
# 在創建session的時候把config作為參數傳進去
sess = tf.InteractiveSession(config = config)
參考鏈接: http://blog.csdn.net/leibaojiangjun1/article/details/53671257