如何傻瓜式的在Linux環境下成功搭建CUDA和cuDNN


首先通過以下命令查看是否GPU驅動成功:

注意:需要在bash終端輸入

import
tensorflow as tf print(tf.test.is_gpu_available()) 如果顯示True證明成功運行, 顯示false需要重新配置.

 

查看GPU顯存情況:

1.查看GPU基本信息
nvidia-smi 2.設置 5 秒鍾更新一次 watch
-n 5 nvidia-smi

 

所有軟件的version都需要match上:

我目前cloud配置版本:

tensorflow-gpu == 2.1

CUDA == 10.1.

CUDNN == 7.6.

 

1.查看Tensorflow版本:

import tensorflow as tf
tf.__version__

2. 查看CUDA的版本 :

cat /usr/local/cuda/version.txt

3. 查看CUDNN的版本:

cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2

 

4. 安裝它們

1)安裝tensorflow

$ pip install tensorflow # Python 2.7; CPU support (no GPU support)

$ pip3 install tensorflow # Python 3.n; CPU support (no GPU support)

$ pip install tensorflow-gpu # Python 2.7; GPU support

$ pip3 install tensorflow-gpu # Python 3.n; GPU support

不加版本的話默認是最新版本,如果想下特定的版本可在tensorflow后面加上版本號,例如第一個可以寫成pip install tensorflow==1.1.0

 

2) 安裝CUDA

  少走彎路,參考官網: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html

  強烈建議: distribution-specific packages (RPM and Deb packages)方法

  download package: http://developer.nvidia.com/cuda-downloads

 

3) 安裝cuDNN

 少走彎路,參考官網:: https://docs.nvidia.com/deeplearning/sdk/cudnn-install/index.html

 強烈建議: Installing From A Debian File 方法 

 download package:  https://developer.nvidia.com/rdp/cudnn-download

 

4) 安裝玩之后重新檢查是否為True.

 

5. 贈送: scp上傳文件格式

安裝的時候有能需要把文件下載到本地, 然后通過scp上傳到雲端進行安裝, 以下是方法:

1) 從本地上傳雲端

scp local_file remote_username@remote_ip:remote_folder 
例子:
scp xwang4@198.129.86.87:/home/xwang4/set_env.sh /Users/charlottewang/Desktop/

2) 雲端下載到本地

scp remote_username@remote_ip:remote_folder local_file
例子: scp /Users/charlottewang/Desktop/test.txt xwang4@198.129.86.87:/home/xwang4/set_env.sh


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM