如何傻瓜式的在Linux环境下成功搭建CUDA和cuDNN


首先通过以下命令查看是否GPU驱动成功:

注意:需要在bash终端输入

import
tensorflow as tf print(tf.test.is_gpu_available()) 如果显示True证明成功运行, 显示false需要重新配置.

 

查看GPU显存情况:

1.查看GPU基本信息
nvidia-smi 2.设置 5 秒钟更新一次 watch
-n 5 nvidia-smi

 

所有软件的version都需要match上:

我目前cloud配置版本:

tensorflow-gpu == 2.1

CUDA == 10.1.

CUDNN == 7.6.

 

1.查看Tensorflow版本:

import tensorflow as tf
tf.__version__

2. 查看CUDA的版本 :

cat /usr/local/cuda/version.txt

3. 查看CUDNN的版本:

cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2

 

4. 安装它们

1)安装tensorflow

$ pip install tensorflow # Python 2.7; CPU support (no GPU support)

$ pip3 install tensorflow # Python 3.n; CPU support (no GPU support)

$ pip install tensorflow-gpu # Python 2.7; GPU support

$ pip3 install tensorflow-gpu # Python 3.n; GPU support

不加版本的话默认是最新版本,如果想下特定的版本可在tensorflow后面加上版本号,例如第一个可以写成pip install tensorflow==1.1.0

 

2) 安装CUDA

  少走弯路,参考官网: https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html

  强烈建议: distribution-specific packages (RPM and Deb packages)方法

  download package: http://developer.nvidia.com/cuda-downloads

 

3) 安装cuDNN

 少走弯路,参考官网:: https://docs.nvidia.com/deeplearning/sdk/cudnn-install/index.html

 强烈建议: Installing From A Debian File 方法 

 download package:  https://developer.nvidia.com/rdp/cudnn-download

 

4) 安装玩之后重新检查是否为True.

 

5. 赠送: scp上传文件格式

安装的时候有能需要把文件下载到本地, 然后通过scp上传到云端进行安装, 以下是方法:

1) 从本地上传云端

scp local_file remote_username@remote_ip:remote_folder 
例子:
scp xwang4@198.129.86.87:/home/xwang4/set_env.sh /Users/charlottewang/Desktop/

2) 云端下载到本地

scp remote_username@remote_ip:remote_folder local_file
例子: scp /Users/charlottewang/Desktop/test.txt xwang4@198.129.86.87:/home/xwang4/set_env.sh


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM