卷積神經網路_影象卷積解釋
學習卷積神經網路一段時間了,記錄下關於卷積神經網路中影象卷積的原理。
互相學習交流。
1、人工神經網路
首先看下人工神經網路感知器的原理圖,這個不是重點,但是卷積神經網路由此而來,所以擷取材料如下:
類似wx + b的形式,其中· a1~an為輸入向量,當然,也常用x1~xn表示輸入· w1~wn為權重· b為偏置bias· f為啟用函式· t為輸出
2、卷積神經網路
從圖中可以看出,卷積神經網路實際就是利用卷積代替全連線,好處就是可以顯著減少權重矩陣的引數,提高訓練效率,詳細請自行查閱資料。
我們知道對於全連線網路輸出z=wx+b
3、影象二維卷積
上圖中,最左側的三個矩陣就是輸入,就是所謂的FeatureMaps(特徵圖),中間有兩個濾波器Filter w0和Filter W1,每個濾波器含有三個小矩陣,這三個小矩陣我們把它們叫做卷積核,也叫卷積核算子或者卷積運算元,這兩個濾波器對應個著最右面的兩個輸出矩陣。實際上就是每一個濾波器提取影象的一種特徵,所以兩個濾波器就對應著兩個輸出矩陣,我們把每一組輸出也叫做一組特徵對映。每個特徵圖分別對應一個卷積核,也就是說一個特徵圖上共享一個卷積核,這也就是卷積神經網路所謂的權值共享
此時的輸入就不是一個數了,而是矩陣,左邊這三個矩陣對應著就是輸入X0,X1,X2,而此時的Z就是輸出矩陣Z=WUX+B,W為權重矩陣,B為偏置矩陣。
如上圖,L-1層輸入X0,X1,X2,L層的X是輸出矩陣Z經過激勵函式得到的結果。即為:
其中f為激勵函式。我們知道卷積神經網路分多層,其中卷積層部分都是按照上述原理進行。至於卷積神經網路的區域性感知和下采樣在此不贅述。