pytorch的函數中的group參數的作用


1.當設置group=1時:

conv = nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=1)
conv.weight.data.size()

返回:

torch.Size([6, 6, 1, 1])

另一個例子:

conv = nn.Conv2d(in_channels=6, out_channels=3, kernel_size=1, groups=1)
conv.weight.data.size()

返回:

torch.Size([3, 6, 1, 1])

可見第一個值為out_channels的大小,第二個值為in_channels的大小,后面兩個值為kernel_size

 

2.當設置為group=2時

conv = nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=2)
conv.weight.data.size()

返回:

torch.Size([6, 3, 1, 1])

 

3.當設置group=3時

conv = nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=3)
conv.weight.data.size()

返回:

torch.Size([6, 2, 1, 1])

 

4.當設置group=4時

conv = nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=4)
conv.weight.data.size()

報錯:

ValueError: in_channels must be divisible by groups

groups的值必須能整除in_channels

注意:

同樣也要求groups的值必須能整除out_channels,舉例:

conv = nn.Conv2d(in_channels=6, out_channels=3, kernel_size=1, groups=2)
conv.weight.data.size()

否則會報錯:

ValueError: out_channels must be divisible by groups

 

 

5.當設置group=in_channels時

conv = nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=6)
conv.weight.data.size()

返回:

torch.Size([6, 1, 1, 1])

 

所以當group=1時,該卷積層需要6*6*1*1=36個參數,即需要6個6*1*1的卷積核

計算時就是6*H_in*W_in的輸入整個乘以一個6*1*1的卷積核,得到輸出的一個channel的值,即1*H_out*W_out。這樣經過6次與6個卷積核計算就能夠得到6*H_out*W_out的結果了

 

如果將group=3時,卷積核大小為torch.Size([6, 2, 1, 1]),即6個2*1*1的卷積核,只需要需要6*2*1*1=12個參數

那么每組計算就只被in_channels/groups=2個channels的卷積核計算,當然這也會將輸入分為三份大小為2*H_in*W_in的小輸入,分別與2*1*1大小的卷積核進行三次運算,然后將得到的3個2*H_out*W_out的小輸出concat起來得到最后的6*H_out*W_out輸出

在實際實驗中,同樣的網絡結構下,這種分組的卷積效果是好於未分組的卷積的效果的。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM