最近兩天,我入手了一個RTX 2070 super 8G的GPU,想要替換掉原來的GTX 1060 6G的GPU。雖說網上都說新入手的GPU的性能比原來的強大得多,我還是通過一個簡單的實驗來對比了一下兩張GPU做深度學習的效果。
實驗配置是在一台配置了i5 8500,16G RAM的電腦上完成了。在這台電腦上,分別測試兩張顯卡對同一個深度模型進行訓練所需要的時間,所測試的情況包括如下集中:
1、RTX 2070 super,epoch=5,batch_size = 200,數據集放置在機械硬盤上。每個epoch的訓練用時為:[54.04, 54.15, 54.12, 54.07, 54.09];
2、RTX 2070 super,epoch=5,batch_size = 300,數據集放置在機械硬盤上。每個epoch的訓練用時為:[52.64, 52.80, 52.57, 52.62, 52.67];
3、RTX 2070 super,epoch=5,batch_size = 200,數據集放置在固態硬盤上。每個epoch的訓練用時為:[53.22, 53.12, 53.00, 53.99, 53.22];
4、RTX 2070 super,epoch=5,batch_size = 300,數據集放置在固態硬盤上。每個epoch的訓練用時為:[52.56, 52.49, 52.46, 52.35, 52.53];
5、GTX 1060,epoch=5,batch_size = 200,數據集放置在機械硬盤上。每個epoch的訓練用時為:[83.66, 83.66, 83.62, 83.55, 83.60];
對比1和5的結果發現RTX 2070 super的訓練速度相較於GTX 1060要快上35%左右,訓練速度的提升還是蠻明顯的。
由於新顯卡有着更高的顯存,因此每一批可以容納下更多的張量數據,因此可以通過調大batch_size來保證GPU有着更高的使用率,對比1和2的結果,發現訓練速度還是有一定的提升的。
考慮到對圖片數據的讀寫速度也會影響模型訓練的用時,因此我將訓練集從機械硬盤放置到固態硬盤上,結果顯示在3上,對比1的結果,訓練速度也有一定的提升。
最后我使用高batch_size並且使用在固態硬盤上的數據做訓練,得到4的結果,這也是所能得到的最佳結果。
綜上,或許可以得到以下結論:對於深度學習訓練速度的提升效果,顯卡性能>batch_size>固態硬盤。