卷積神經網路綜述
阿新 • • 發佈:2018-11-19
卷積神經網路綜述
原理
相關模型
模型 | 年代 | 特點 | 結構 | 概念 | 相關程式碼 |
---|---|---|---|---|---|
LeNet-5 | 90年代 | LeNet-5 也能使用反響傳播演算法(backpropagation) ]訓練 ,三種類型的神經網路層 | 卷積層 ,池化層,池化層.1、卷積層、池化層和啟用函式層等操作是將原始資料對映到隱層特徵空間的話,2、全連線層則起到將學到的“分散式特徵表示”對映到樣本標記空間的作用 | ||
AlexNet | 2012 | 1、使用了非線性啟用函式ReLu與Dropout方法2、由五層卷積和三層全連線組成,輸入影象為三通道224x224大小,網路規模遠大於LeNet 3、使用了Dropout,可以作為正則項防止過擬合,提升模型魯棒性 | |||
ZFNet | 1、對AlexNet的改進首先在第一層的卷積核尺寸從11x11降為7x7,2、將卷積時的步長從4降至2。 3、這樣使中間的卷積層擴張從而可以捕捉到更多的資訊。 | ||||
VGGNet | 2014 | 網路的深度擴充套件到了19層,並且在每個卷積層使用了3x3這種小尺寸的卷積核。結果證明深度對網路效能有著重要影響 | |||
GoogleNet | 2015 | 增加了網路的寬度與深度,並且相比於更窄更淺的網路,其在沒有明顯增多的計算量的情況下使網路效能明顯增強。 | 參考分析 | ||
ResNet | ILSVRC 2015冠軍 | 層數變得更多, ResNet是 AlexNet的20多倍,是 VGGNet的8倍多,增加深度,網路便能夠利用增加的非線性得出目標函式的近似結構 , ResNet通過引入shortcut直連來解決梯度消失 | |||
DenseNet | 每一層輸出都直連到後面的所有層,可以更好地複用特徵,每一層都比較淺,融合了來自前面所有層的所有特徵,並且很容易訓練 | ||||
ResNeXt | 2017 | 左邊為普通的resnet結構,而右邊為ResNeXt提出的結構,有點像inception+resnet。但是inception最後是拼接,而這裡是加,各個通道也是一模一樣的(很方便之後特徵圖相加)。 而ResNeXt和ResNet的主要區別就在於group操作 | |||
DPN | 融合了ResNeXt和DenseNet的核心思想。分成左右兩個部分,第一部分類似DenseNet(因為加入了分組卷積,所以說是類似),第二部分是ResNeXt,對與中間的shortcut部分,由左右兩部分的特徵圖經過1x1卷積相加,然後經過3x3卷積,和1x1的卷積(這就是resnet的shortcut部分),然後對獲取的特徵圖分成兩部分,一部分和左邊類DenseNet對應特徵圖拼接,另一部分與右邊ResNeXt的特徵圖進行相加 |
層 | 目的 | 特點 | |
---|---|---|---|
卷積層 | 池化層是CNN的重要組成部分,通過減少卷積層之間的連線,降低運算複雜程度 | ||
池化層 | Lp 池化:Lp池化是建立在複雜細胞執行機制的基礎上,受生物啟發而來 | ||
混合池化:受隨機Dropout [16] 和 DropConnect [28], Yu et al.啟發而來 | |||
隨機池化:隨機迴圈 [30] 是受 dropout啟發而來的方法 | |||
Spatial pyramid pooling:空間金字塔池化[26]可以把任何尺度的影象的卷積特徵轉化成相同維度,這不僅可以讓CNN處理任意尺度的影象,還能避免 cropping和warping操作,導致一些資訊的丟失,具有非常重要的意義 |
應用場景 | 應用模型 |
---|---|
影象分類 | |
物體檢測 | |
物體追蹤 | |
姿態估計 | |
文字檢測 | |
視覺顯著檢測 | |
動作識別和場景標籤 |
加速訓練程序
方法 | 概述 |
---|---|
SGD演算法 |
##問題
如何選擇合適的超引數?比如學習率、卷積過濾的核大小、層數等等