pytorch安裝教程


前提條件,pytorch 、torcvision、python、cuda、cudnn版本要對應上。建議提前把cuda、cudnn、pytorch、torchvision、python的對應版本確定之后再下載,節省時間。

1、cuda安裝

進入官網,下載對應版本的cuda.

CUDA Toolkit Archive | NVIDIA Developer


  • 點擊相應的版本鏈接之后按照自己電腦的配置選擇相應版本,本地下載即可。

下載完成后,打開安裝程序:
安裝路徑可以默認也可以自定義。之后點擊ok就行。

等待。。。。。。

繼續等待。。。。。。

點擊同意並繼續

如果不知道怎么選,就選擇精簡安裝。

我也不知道按那個,so 我全部安裝??

可以選擇默認路徑或者自定義安裝路徑,記下安裝的路徑。


最終“下一步”,然后“完成”就行。
配置系統環境變量,選擇path
如圖:

檢查是否有下圖中的兩個環境變量

驗證安裝:nvcc -V

CUDA安裝成功!

2、cudnn安裝

進入官網下載對應版本的cudnn(進入網頁下載當然要注冊賬號,如果有就不用了)

cuDNN Archive | NVIDIA Developer

 

 下載后,將下載文件解壓,然后 copy------》past
按照自己的情況來,圖中是我的解壓和安裝路徑:(注意是路徑中的文件)

 

 添加path環境變量:C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0\lib\x64

cuDNN安裝完成!!

3、離線安裝pytorch

可以通過命令在線安裝,可是很多人由於網絡的問題,經常安裝失敗,可以通過離線安裝pytorch。

Index of /anaconda/cloud/pytorch/win-64/ | 清華大學開源軟件鏡像站 | Tsinghua Open Source Mirror

進入清華鏡像站下載pytorch和torchvision

根據自己電腦配置選擇對應的下載文件:pytorch安裝包和torchvision安裝包
我下載的是:
pytorch-1.8.0-py3.7_cuda11.1_cudnn8_0.tar.bz2
torchvision-0.9.0-py37_cu111.tar.bz2

安裝過程

打開cmd或者anaconda prompt,cd到你下載安裝包的目錄

conda install --offline pytorch-1.5.1-py3.7_cpu_0.tar.bz2
conda install --offline torchvision-0.6.0-py37_cpu.tar.bz2

安裝pytorch包時,由於文件太大,需要等待一段時間

安裝結束~

檢測一下是否安裝成功,最后返回是“True”即可

注意

如果torchvision安裝出錯,更新一下python的pillow

 

安裝過程中出現的問題:

我遇到的問題是在用conda創建虛擬環境時總是出現如下錯誤:

CondaVerificationError: The package for wheel located at /home/xxx/anaconda3/pkgs/wheel-0.36.2-pyhd3eb1b0_0
appears to be corrupted. The path 'site-packages/wheel/vendored/__init__.py'
specified in the package manifest cannot be found.

CondaVerificationError: The package for wheel located at /home/xxx/anaconda3/pkgs/wheel-0.36.2-pyhd3eb1b0_0
appears to be corrupted. The path 'site-packages/wheel/vendored/packaging/__init__.py'
specified in the package manifest cannot be found.

在網上查找了類似CondaVerificationError問題的解決辦法,找到的主要的解決方案是執行命令:conda clean --packages --tarballs 或者 conda clean --all 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM