1. 程式人生 > >區域性感知+權共享機制:讓一組神經元使用相同的連線權 和池化

區域性感知+權共享機制:讓一組神經元使用相同的連線權 和池化

提出:全連線的結構下會引起引數數量的膨脹,容易過擬合且區域性最優。影象中有固有的區域性模式可以利用,所以,提出了CNN,並不是所有上下層神經元都能直接相連,而是通過“卷積核”作為中介。同一個卷積核在所有影象內都是共享的,影象通過卷積操作後仍然保留原來的位置關係。
複合多個“卷積層”和“取樣層”對輸入訊號進行加工,然後再連線層實現與輸出目標之間的對映。多層的目的:一層卷積學到的特徵往往是區域性的,層數越高,學到的特徵就越全域性化。
CNN兩大神器:
1、區域性感知:一般認為影象的空間聯絡是區域性的畫素聯絡比較密切,而距離較遠的畫素相關性較弱,因此,每個神經元沒必要對全域性影象進行感知,只要對區域性進行感知,然後在更高層將區域性的資訊綜合起來得到全域性資訊。利用卷積層實現:(特徵對映,每個特徵對映是一個神經元陣列):從上一層通過區域性卷積濾波器提取區域性特徵。卷積層緊跟著一個用來求區域性平均與二次提取的計算層,這種二次特徵提取結構減少了特徵解析度。
2、引數共享:

在區域性連線中,每個神經元的引數都是一樣的,即:同一個卷積核在影象中都是共享的。(理解:卷積操作實際是在提取一個個區域性資訊,而區域性資訊的一些統計特性和其他部分是一樣的,也就意味著這部分學到的特徵也可以用到另一部分上。所以對影象上的所有位置,都能使用同樣的學習特徵。)卷積核共享有個問題:提取特徵不充分,可以通過增加多個卷積核來彌補,可以學習多種特徵。
3、取樣(池化)層:在通過卷積得到特徵後,希望利用這些特徵進行分類。基於區域性相關性原理進行亞取樣,在減少資料量的同時保留有用資訊。(壓縮資料和引數的量,減少過擬合)(max-polling 和average-polling)
可用BP演算法訓練,訓練中,無論是卷積層還是取樣層,每一組神經元都是用相同的連線權。
優點:限制了引數的個數並挖掘了局部結構的這個特點,減少了複雜度。

池化層夾在連續的卷積層中間, 用於壓縮資料和引數的量,減小過擬合。
簡而言之,如果輸入是影象的話,那麼池化層的最主要作用就是壓縮影象。

這裡再展開敘述池化層的具體作用。

1. 特徵不變性,也就是我們在影象處理中經常提到的特徵的尺度不變性,池化操作就是影象的resize,平時一張狗的影象被縮小了一倍我們還能認出這是一張狗的照片,這說明這張影象中仍保留著狗最重要的特徵,我們一看就能判斷影象中畫的是一隻狗,影象壓縮時去掉的資訊只是一些無關緊要的資訊,而留下的資訊則是具有尺度不變性的特徵,是最能表達影象的特徵。

2. 特徵降維,我們知道一幅影象含有的資訊是很大的,特徵也很多,但是有些資訊對於我們做影象任務時沒有太多用途或者有重複,我們可以把這類冗餘資訊去除,把最重要的特徵抽取出來,這也是池化操作的一大作用。

3. 在一定程度上防止過擬合,更方便優化

(CNN主要用來識別位移、縮放及其他形式扭曲不變性的二維圖形。由於CNN的特徵檢測層通過訓練資料進行學習,所以在使用CNN時,避免了顯示的特徵抽取,而隱式地從訓練資料中進行學習;再者由於同一特徵對映面上的神經元權值相同,所以網路可以並行學習,這也是卷積網路相對於神經元彼此相連網路的一大優勢。卷積神經網路以其區域性權值共享的特殊結構在語音識別和影象處理方面有著獨特的優越性,其佈局更接近於實際的生物神經網路,權值共享降低了網路的複雜性,特別是多維輸入向量的影象可以直接輸入網路這一特點避免了特徵提取和分類過程中資料重建的複雜度)

--------------------- 
作者:Cche1 
來源:CSDN 
原文:https://blog.csdn.net/qq_27923041/article/details/78407176 
版權宣告:本文為博主原創文章,轉載請附上博文連結!

卷積神經網路的三個特點,區域性感知,權重共享和池化。

區域性感知就是提取區域性特徵在全域性的一個分佈情況,為什麼呢?實際上就是相當於我的一大幅圖片,我想看看各個特徵在這幅圖上面的分佈情況,然後看各種特徵的分佈情況來決定最終的結果。所以區域性感知是檢視某特徵的空間分佈。

權重共享,感覺和區域性感知應該是差不多的,既然是看某一個特徵的分佈,那肯定是要這幅圖的每一個區域性都要這樣做。

池化,我感覺是這樣的。首先對於原來的全連結的神經網路來說,由於相鄰的兩層之間有大量的引數,所以層與層之間能夠衰減得很快,但是對於卷積神經網路來說,由於權重比較小,所以相對衰減比較慢。加這麼一個pool是希望能夠儘量保證大部分資訊在得情況下快速衰減神經元得數量。
--------------------- 
作者:hello_pig1995 
來源:CSDN 
原文:https://blog.csdn.net/Zhaohui1995_Yang/article/details/51346705 
版權宣告:本文為博主原創文章,轉載請附上博文連結!