deepin的CUDA和cuDNN安裝方法與其它系統有所不同,參考其它操作系統的方法也許不適用,特別是顯卡驅動的安裝,容易使系統出現問題
本次配置:
操作系統:deepin15.5桌面版
電腦品牌:聯想拯救者
CPU:i5-7300HQ
顯卡:NVIDIA GTX 1050Ti
tensorflow版本:1.4
cuda版本:8.0
cudnn版本:6
目錄:
- 安裝顯卡驅動
- 安裝CUDA
- 安裝tensorflow-GPU
- 安裝CUDNN
一、安裝顯卡驅動
deepin15.5的顯卡驅動可以使用bumblebee工具,此處不需要手動禁用nouveau,因為安裝完成之后會自動禁用
安裝驅動命令:
sudo apt-get install bumblebee bumblebee-nvidia nvidia-smi
安裝完之后,在命令行輸入:
optirun nvidia-smi
輸出:
上圖表明安裝已經成功。
驅動使用方法:
在進行訓練前,在終端輸入sudo tee /proc/acpi/bbswitch <<< ON
,可開啟顯卡。
在訓練結束后,在終端輸入sudo tee /proc/acpi/bbswitch <<< OFF
,可關閉顯卡。
二、安裝CUDA
網上很多教程都不適用於我的系統,下載安裝包來安裝也會報錯,所以這里采用命令行安裝的方法:
sudo apt install nvidia-cuda-dev nvidia-cuda-toolkit nvidia-nsight nvidia-visual-profiler
至此,CUDA安裝完成
三、安裝tensorflow-GPU
為什么要在安裝cuDNN之前安裝tensorflow-gpu呢?因為我們之前安裝的cuda方法與往常不同,所以cuDNN的安裝方法也有所不同,需要先安裝tensorflow-gpu
安裝很簡單,輸入以下命令:
pip install tensorflow-gpu==1.4
四、安裝cuDNN
從官方網站下載安裝包:https://developer.nvidia.com/rdp/cudnn-download
下載之后解壓,會得到一個cuda文件夾。
接下來進行兩個步驟:
- 步驟一:將解壓出來的
cuda/include/
下的cudnn.h
文件復制到/usr/local/include/
目錄下。 - 步驟二:將
cuda/lib64/
目錄下的所有文件復制到python環境的tensorflow包的tensorflow/python/
目錄下
我的python環境的tensorflow包的tensorflow/python/
目錄是:/home/XXX/anaconda3/lib/python3.6/site-packages/tensorflow/python
至此,所有安裝都已經結束
測試:
進入python環境中,輸入以下命令:
import tensorflow as tf sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
輸出:
結果中有GPU的名稱,顯存等信息,表示tensorflow可以使用GPU了
如有問題,歡迎留言討論
參考資料:
https://blog.csdn.net/aaronjny/article/details/79330727