1. 程式人生 > >關於feature map, 神經元個數,可訓練引數個數, 卷積核大小 的一些總結

關於feature map, 神經元個數,可訓練引數個數, 卷積核大小 的一些總結

輸入input: 32 x 32 的影象
使用:    6個 5x5  stride為 1的卷積核
神經元 個數: (32-5+1) * (32 -5 +1) = 28 * 28 個。也就是每一個feature map的大小就是28 * 28 。  其中,32-5是卷積核可以滑過並得到一次計算結果的次數(因為步幅是1),+1是卷積核放在最開始的位置上還沒開始滑動時的一次計算結果。
那麼這一層一共有 (5*5 +1)*6個可訓練引數,其中5*5為卷積核的大小,1為一個bias引數, 6為6種卷積核。
注意如果是三通道,三個通道的權重並不共享。 所以對於以上的計算,三通道的引數數量應該還要乘以3。個人總結的 feature map 和 神經元的關係 及其他概念的關係 : feature map 和 神經元的關係:單個卷積核情況下:

 神經元是 前一層wx+b 到下一層的計算過程,所謂這一層的連線數,也就是有多少個 wx+b的連線(一個卷積核有多個w只有一個bias)
 一個feature map 是多個(比如M個)神經元計算的結果彙總多個卷積核情況下:同一層可以有多個(比如N個)卷積核,每個卷積核對應(卷積的結果是)一個feature map ,也就是這一層有N個feature map, 那這一層共有 N*M個神經元。(如果每個fm的神經元個數不一樣,則累加每個fm的神經元個數)可訓練引數個數, 與神經元的個數無關,只與卷積核的大小及卷積核的個數相關,還有通道數神經元個數,       除了卷積核大小和個數,還與步幅相關。步幅越大,神經元個數越小
feature map的每個點都是一個神經元的輸出。所以 神經元個數 = 特徵圖大小
連線個數= sigma(單個卷積核引數個數*神經元個數)  (單個卷積核會用同樣的卷積核引數,每多滑動一下,多生成引數個連線)
CNN權值共享就是同一個Feature Map中神經元權值共享,該Feature Map中的所有神經元使用同一個權值。這與全連線相比,引數減少太多了(整個影象的矩陣大小到卷積核的矩陣大小)