1. 程式人生 > 程式設計 >對pytorch的函式中的group引數的作用介紹

對pytorch的函式中的group引數的作用介紹

1.當設定group=1時:

conv = nn.Conv2d(in_channels=6,out_channels=6,kernel_size=1,groups=1)
conv.weight.data.size()

返回:

torch.Size([6,6,1,1])

另一個例子:

conv = nn.Conv2d(in_channels=6,out_channels=3,groups=1)
conv.weight.data.size()

返回:

torch.Size([3,1])

可見第一個值為out_channels的大小,第二個值為in_channels的大小,後面兩個值為kernel_size

2.當設定為group=2時

conv = nn.Conv2d(in_channels=6,groups=2)
conv.weight.data.size()

返回:

torch.Size([6,3,1])

3.當設定group=3時

conv = nn.Conv2d(in_channels=6,groups=3)
conv.weight.data.size()

返回:

torch.Size([6,2,1])

4.當設定group=4時

conv = nn.Conv2d(in_channels=6,groups=4)
conv.weight.data.size()

報錯:

ValueError: in_channels must be divisible by groups

groups的值必須能整除in_channels

注意:

同樣也要求groups的值必須能整除out_channels,舉例:

conv = nn.Conv2d(in_channels=6,groups=2)
conv.weight.data.size()

否則會報錯:

ValueError: out_channels must be divisible by groups

5.當設定group=in_channels時

conv = nn.Conv2d(in_channels=6,groups=6)
conv.weight.data.size()

返回:

torch.Size([6,1])

所以當group=1時,該卷積層需要6*6*1*1=36個引數,即需要6個6*1*1的卷積核

計算時就是6*H_in*W_in的輸入整個乘以一個6*1*1的卷積核,得到輸出的一個channel的值,即1*H_out*W_out。這樣經過6次與6個卷積核計算就能夠得到6*H_out*W_out的結果了

如果將group=3時,卷積核大小為torch.Size([6,1]),即6個2*1*1的卷積核,只需要需要6*2*1*1=12個引數

那麼每組計算就只被in_channels/groups=2個channels的卷積核計算,當然這也會將輸入分為三份大小為2*H_in*W_in的小輸入,分別與2*1*1大小的卷積核進行三次運算,然後將得到的3個2*H_out*W_out的小輸出concat起來得到最後的6*H_out*W_out輸出

在實際實驗中,同樣的網路結構下,這種分組的卷積效果是好於未分組的卷積的效果的。

以上這篇對pytorch的函式中的group引數的作用介紹就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。