1.當設置group=1時:
conv = nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=1) conv.weight.data.size()
返回:
torch.Size([6, 6, 1, 1])
另一個例子:
conv = nn.Conv2d(in_channels=6, out_channels=3, kernel_size=1, groups=1) conv.weight.data.size()
返回:
torch.Size([3, 6, 1, 1])
可見第一個值為out_channels的大小,第二個值為in_channels的大小,后面兩個值為kernel_size
2.當設置為group=2時
conv = nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=2) conv.weight.data.size()
返回:
torch.Size([6, 3, 1, 1])
3.當設置group=3時
conv = nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=3) conv.weight.data.size()
返回:
torch.Size([6, 2, 1, 1])
4.當設置group=4時
conv = nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=4) conv.weight.data.size()
報錯:
ValueError: in_channels must be divisible by groups
groups的值必須能整除in_channels
注意:
同樣也要求groups的值必須能整除out_channels,舉例:
conv = nn.Conv2d(in_channels=6, out_channels=3, kernel_size=1, groups=2) conv.weight.data.size()
否則會報錯:
ValueError: out_channels must be divisible by groups
5.當設置group=in_channels時
conv = nn.Conv2d(in_channels=6, out_channels=6, kernel_size=1, groups=6) conv.weight.data.size()
返回:
torch.Size([6, 1, 1, 1])
所以當group=1時,該卷積層需要6*6*1*1=36個參數,即需要6個6*1*1的卷積核
計算時就是6*H_in*W_in的輸入整個乘以一個6*1*1的卷積核,得到輸出的一個channel的值,即1*H_out*W_out。這樣經過6次與6個卷積核計算就能夠得到6*H_out*W_out的結果了
如果將group=3時,卷積核大小為torch.Size([6, 2, 1, 1]),即6個2*1*1的卷積核,只需要需要6*2*1*1=12個參數
那么每組計算就只被in_channels/groups=2個channels的卷積核計算,當然這也會將輸入分為三份大小為2*H_in*W_in的小輸入,分別與2*1*1大小的卷積核進行三次運算,然后將得到的3個2*H_out*W_out的小輸出concat起來得到最后的6*H_out*W_out輸出
在實際實驗中,同樣的網絡結構下,這種分組的卷積效果是好於未分組的卷積的效果的。
