關於神經網路的一些心得總結
【一些基礎概念】
feature map:用不同的濾波器去卷及影象會得到不同特徵的對映,即feature map
ground truth:正確的標註,訓練集對監督學習技術的分類的正確性
【一些亂七八糟的心得和記錄】
1、神經元的概念:用100種卷積核去卷積就有100個feature map,這100個feature map就組成了一層神經元
2、隱藏層的作用:可以看成是使用一個非線性的方式打亂輸入資料,來讓輸入資料對應的類別在最後一層變得線性可分
3、非極大抑制:即抑制不是極大值的元素,可理解為區域性最大搜索。例如在行人檢測中,滑動視窗經提取特徵,經分類器分類識別後,每個視窗都會得到一個分數。但是滑動視窗會導致很多視窗與其他視窗存在包含或者大部分交叉的情況,這時就需要NMS(非極大抑制)來選取那些鄰域裡分數最高(行人概率最大)的視窗,抑制那些分數低的視窗
4、下采樣(subsampled)又名降取樣(downsampled),是縮小影象。目的:(1)使得影象符合顯示區域的大小(2)生成對應影象的縮圖
上取樣(upsampled)又名影象插值(interpolating),是放大影象。一般採用內插值法,在原有畫素基礎上畫素點之間插入新的元素
5、全連線層:全連線層需要把輸入拉成一列向量。卷積取得是區域性特徵,全連線就是把以前的區域性特徵重新通過權值矩陣組裝成完整的圖,因為用到了全部的區域性特徵,所以叫全連線
6、區域性連線和權值共享,影象的空間聯絡是區域性的,就像人是通過一個區域性的感受野去感受完整影象一樣,每個神經元都不需要對全域性影象做感受,每個神經元只感受區域性的影象區域,然後再更高層,將這些不同區域性的神經元綜合起來就可以得到全域性資訊。
簡單點來說就是,卷積核卷積的過程就是區域性連線和權值共享,假設用一個3*3的卷積核進行卷積,感受野就是9,區域性連線的意識就是這9個畫素對應輸出的一個值。權值共享就是這個卷積核遍歷整個圖片,整個圖片都用同一個卷積核的引數。這樣就大大減少了引數的數量。。神經網路訓練的就是卷積核的數量和偏置。