本地安装Cuda版本的Torch
之前安装了Torch,但是是CPU版本的,对于模型训练而言cpu版本的Torch实在是太慢了,所以开始安装Cuda(GPU)版本的torch。
推荐下载站:上海交通大学镜像
为什么要本地安装Torch
由于现在国内直接安装Torch还是太慢了,主要是国内直连国外的服务器可能还是比较慢的。而且,如果实在服务器上安装Torch,联网实在是一件麻烦的事情。所以本地安装其实更加高效方便,不过在刚开始的时候可能更加麻烦一点。
Torch的必备要求
- Nvidia版本支持Cuda的显卡:可以在系统配置里面直接看到,这里不赘述了。
- 安装
Python
或者C++
:这里我选择的是Python,毕竟现在做深度学习还是Python居多,其中很多的运算密集型操作也可通过调用Cpp的包完成。 - 安装和显卡
Cuda
版本对应的英伟达Cuda驱动:可以前往英伟达官网下载驱动。 - 下载Torch的wheel文件,可以选择上面提供的下载站下载,也可以自行寻找whl文件下载.
Caution: 下载时可以使用vpn,安装时则不能使用vpn,否则可能出现
Hostname
报错
graph TD; A[确认你的GPU支持cuda]-->B[查看自己的Cuda版本]; B-->C[根据自己的Cuda版本下载相关的英伟达官网cuda包]; C-->D[确认完成Python或者Cpp的下载]; D-->E[根据自己的Python版本和Cuda版本前往下载站下载torch.whl文件]; E-->F[pip或者conda直接安装,此时不能连接vpn.同时需要确保torch.whl的名称符合标准命名方式];
Success
Ooops, it works!