對pytorch的函式中的group引數的作用介紹
1.當設定group=1時:
conv = nn.Conv2d(in_channels=6,out_channels=6,kernel_size=1,groups=1) conv.weight.data.size()
返回:
torch.Size([6,6,1,1])
另一個例子:
conv = nn.Conv2d(in_channels=6,out_channels=3,groups=1) conv.weight.data.size()
返回:
torch.Size([3,1])
可見第一個值為out_channels的大小,第二個值為in_channels的大小,後面兩個值為kernel_size
2.當設定為group=2時
conv = nn.Conv2d(in_channels=6,groups=2) conv.weight.data.size()
返回:
torch.Size([6,3,1])
3.當設定group=3時
conv = nn.Conv2d(in_channels=6,groups=3) conv.weight.data.size()
返回:
torch.Size([6,2,1])
4.當設定group=4時
conv = nn.Conv2d(in_channels=6,groups=4) conv.weight.data.size()
報錯:
ValueError: in_channels must be divisible by groups
groups的值必須能整除in_channels
注意:
同樣也要求groups的值必須能整除out_channels,舉例:
conv = nn.Conv2d(in_channels=6,groups=2) conv.weight.data.size()
否則會報錯:
ValueError: out_channels must be divisible by groups
5.當設定group=in_channels時
conv = nn.Conv2d(in_channels=6,groups=6) conv.weight.data.size()
返回:
torch.Size([6,1])
所以當group=1時,該卷積層需要6*6*1*1=36個引數,即需要6個6*1*1的卷積核
計算時就是6*H_in*W_in的輸入整個乘以一個6*1*1的卷積核,得到輸出的一個channel的值,即1*H_out*W_out。這樣經過6次與6個卷積核計算就能夠得到6*H_out*W_out的結果了
如果將group=3時,卷積核大小為torch.Size([6,1]),即6個2*1*1的卷積核,只需要需要6*2*1*1=12個引數
那麼每組計算就只被in_channels/groups=2個channels的卷積核計算,當然這也會將輸入分為三份大小為2*H_in*W_in的小輸入,分別與2*1*1大小的卷積核進行三次運算,然後將得到的3個2*H_out*W_out的小輸出concat起來得到最後的6*H_out*W_out輸出
在實際實驗中,同樣的網路結構下,這種分組的卷積效果是好於未分組的卷積的效果的。
以上這篇對pytorch的函式中的group引數的作用介紹就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。