1. 程式人生 > >卷積神經網路_影象卷積解釋

卷積神經網路_影象卷積解釋

學習卷積神經網路一段時間了,記錄下關於卷積神經網路中影象卷積的原理。

互相學習交流。

1、人工神經網路

首先看下人工神經網路感知器的原理圖,這個不是重點,但是卷積神經網路由此而來,所以擷取材料如下:

 

類似wx + b的形式,其中·       a1~an為輸入向量,當然,也常用x1~xn表示輸入·       w1~wn為權重·       b為偏置bias·       f為啟用函式·       t為輸出

2、卷積神經網路


從圖中可以看出,卷積神經網路實際就是利用卷積代替全連線,好處就是可以顯著減少權重矩陣的引數,提高訓練效率,詳細請自行查閱資料。

我們知道對於全連線網路輸出z=wx+b

,而對於卷積神經網路,實際公式應該寫成z=wUx+b,權重w和輸入x做卷積。這是對於一維卷積層而言,而在影象處理中,影象是以二維矩陣的形式輸入到神經網路中,因此我們需要二維卷積。下面介紹影象二維卷積。

3、影象二維卷積


上圖中,最左側的三個矩陣就是輸入,就是所謂的FeatureMaps(特徵圖),中間有兩個濾波器Filter w0和Filter W1,每個濾波器含有三個小矩陣,這三個小矩陣我們把它們叫做卷積核,也叫卷積核算子或者卷積運算元,這兩個濾波器對應個著最右面的兩個輸出矩陣。實際上就是每一個濾波器提取影象的一種特徵,所以兩個濾波器就對應著兩個輸出矩陣,我們把每一組輸出也叫做一組特徵對映。每個特徵圖分別對應一個卷積核,也就是說一個特徵圖上共享一個卷積核,這也就是卷積神經網路所謂的權值共享

機制。具體的計算方式可以參照http://blog.csdn.net/real_myth/article/details/51824193

此時的輸入就不是一個數了,而是矩陣,左邊這三個矩陣對應著就是輸入X0,X1,X2,而此時的Z就是輸出矩陣Z=WUX+B,W為權重矩陣,B為偏置矩陣。



如上圖,L-1層輸入X0,X1,X2,L層的X是輸出矩陣Z經過激勵函式得到的結果。即為:


其中f為激勵函式。我們知道卷積神經網路分多層,其中卷積層部分都是按照上述原理進行。至於卷積神經網路的區域性感知和下采樣在此不贅述。