其他:windows使用nvidia-smi查看gpu信息
為什么將數據轉移至GPU的方法叫做.cuda而不是.gpu,就像將數據轉移至CPU調用的方法是.cpu?這是因為GPU的編程接口采用CUDA,而目前並不是所有的GPU都支持CUDA,只有部分Nvidia的GPU才支持。PyTorch未來可能會支持AMD的GPU,而AMD GPU的編程接口采用OpenCL,因此PyTorch還預留着.cl方法,用於以后支持AMD等的GPU。
torch.cuda.is_available()
cuda是否可用;
torch.cuda.device_count()
返回gpu數量;
torch.cuda.get_device_name(0)
返回gpu名字,設備索引默認從0開始;
torch.cuda.current_device()
返回當前設備索引;
# params.device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
params.device = torch.device('cpu')
params.n_gpu = torch.cuda.device_count()
params.multi_gpu = args.multi_gpu
更多信息:https://pytorch.org/docs/stable/cuda.html
---------------------
作者:lsh呵呵
來源:CSDN
原文:https://blog.csdn.net/nima1994/article/details/83001910
版權聲明:本文為博主原創文章,轉載請附上博文鏈接!