如何挑選深度學習 GPU?
深度學習是一個對計算有着大量需求的領域,從一定程度上來說,GPU的選擇將從根本上決定深度學習的體驗。因此,選擇購買合適的GPU是一項非常重要的決策。那么2020年,如何選擇合適的GPU呢?這篇文章整合了網絡上現有的GPU選擇標准和評測信息,希望能作為你的購買決策的參考。
1 是什么使一個GPU比另一個GPU更快?
有一些可靠的性能指標可以作為人們的經驗判斷。以下是針對不同深度學習架構的一些優先准則:
Convolutional networks and Transformers: Tensor Cores > FLOPs > Memory Bandwidth > 16-bit capability
Recurrent networks: Memory Bandwidth > 16-bit capability > Tensor Cores > FLOPs
2 如何選擇NVIDIA/AMD/Google
NVIDIA的標准庫使在CUDA中建立第一個深度學習庫變得非常容易。早期的優勢加上NVIDIA強大的社區支持意味着如果使用NVIDIA GPU,則在出現問題時可以輕松得到支持。但是NVIDIA現在政策使得只有Tesla GPU能在數據中心使用CUDA,而GTX或RTX則不允許,而Tesla與GTX和RTX相比並沒有真正的優勢,價格卻高達10倍。
AMD功能強大,但缺少足夠的支持。AMD GPU具有16位計算能力,但是跟NVIDIA GPU的Tensor內核相比仍然有差距。
Google TPU具備很高的成本效益。由於TPU具有復雜的並行基礎結構,因此如果使用多個雲TPU(相當於4個GPU),TPU將比GPU具有更大的速度優勢。因此,就目前來看,TPU更適合用於訓練卷積神經網絡。
3 多GPU並行加速
卷積網絡和循環網絡非常容易並行,尤其是在僅使用一台計算機或4個GPU的情況下。TensorFlow和PyTorch也都非常適合並行遞歸。但是,包括transformer在內的全連接網絡通常在數據並行性方面性能較差,因此需要更高級的算法來加速。如果在多個GPU上運行,應該先嘗試在1個GPU上運行,比較兩者速度。由於單個GPU幾乎可以完成所有任務,因此,在購買多個GPU時,更好的並行性(如PCIe通道數)的質量並不是那么重要。
4 性能評測
1)來自Tim Dettmers的成本效益評測
[1]
https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/
卷積網絡(CNN),遞歸網絡(RNN)和transformer的歸一化性能/成本數(越高越好)。RTX 2060的成本效率是Tesla V100的5倍以上。對於長度小於100的短序列,Word RNN表示biLSTM。使用PyTorch 1.0.1和CUDA 10進行基准測試。
從這些數據可以看出,RTX 2060比RTX 2070,RTX 2080或RTX 2080 Ti具有更高的成本效益。原因是使用Tensor Cores進行16位計算的能力比僅僅擁有更多Tensor Cores內核要有價值得多。
2)來自Lambda的評測
[2,3]
GPU平均加速/系統總成本
GPU性能,以每秒處理的圖像為單位
以 Quadro RTX 8000 為基准的針對Quadro RTX 8000的圖像模型訓練吞吐量
3) 來自知乎@Aero的「在線」GPU評測
[4]
https://www.zhihu.com/question/299434830/answer/1010987691
大家用的最多的可能是Google Colab,畢竟免費,甚至能選TPU
不過現在出會員了:
免費版主要是K80,有點弱,可以跑比較簡單的模型,有概率分到T4,有歐皇能分到P100。
付費就能確保是T4或者P100,一個月10美元,說是僅限美國。
Colab畢竟是Google的,那么你首先要能連得上google,並且得網絡穩定,要是掉線很可能要重新訓練,綜合來看國內使用體驗不太好。
下一個是百度AI Studio:
免費送V100時長非常良心,以前很多人自己裝tensorflow用,但是現在已經不允許了,實測tensorflow pytorch都不給裝,必須得用paddlepaddle。那么習慣paddlepaddle的用戶完全可以選這個,其他人不適合。
不過似乎GPU不太夠,白天一直提醒高峰期,真到了22點后才有。
國外的還有vast.ai:
5 建議
1)來自Tim Dettmers的建議
- 總體最佳GPU:RTX 2070 GPU
- 避免使用 :任何Tesla;任何Quadro;任何Founders Edition;Titan RTX,Titan V,Titan XP
- 高效但價格昂貴:RTX 2070
- 高效且廉價:RTX 2060,GTX 1060(6GB)
- 價格實惠:GTX 1060(6GB)
- 價格低廉:GTX 1050 Ti(4GB)。或者:CPU(原型設計)+ AWS / TPU(培訓);或Colab。
- 適合Kaggle比賽:RTX 2070
- 適合計算機視覺研究人員:GTX 2080 Ti,如果訓練非常大的網絡,建議使用RTX Titans
2)來自Lambda的建議
截至2020年2月,以下GPU可以訓練所有SOTA語言和圖像模型:
- RTX 8000:48 GB VRAM
- RTX 6000:24 GB VRAM
- Titan RTX:24 GB VRAM
具體建議:
- RTX 2060(6 GB):適合業余時間探索深度學習。
- RTX 2070或2080(8 GB):適合深度學習專業研究者,且預算為4-6k
- RTX 2080 Ti(11 GB):適合深度學習專業研究者,而您的GPU預算約為8-9k。RTX 2080 Ti比RTX 2080快40%。
- Titan RTX和Quadro RTX 6000(24 GB):適合廣泛使用SOTA型號,但沒有用於RTX 8000足夠預算的研究者。
- Quadro RTX 8000(48 GB):價格相對較高,但性能卓越,適合未來投資。