深度學習基本概念的理解
阿新 • • 發佈:2019-02-08
- 深度學習是一種多層表示學習方法,用簡單的非線性模組構建而成,這些模組將上一層表示(從原始資料開始)轉換為更高層,更抽象的表示。當一個學習系統由足夠多這樣簡單的非線性模組構建時,可以學習非常複雜的功能。好的特徵可以使用通用學習方法自動學到,這是深度學習的核心優勢。
- 卷積層和全連線層統稱為權值層,因為這兩種層都具有可學習引數(權值),是網路訓練的物件。Caffe使用稱為Blob的4維陣列用於儲存和交換資料。Blob是caffe的基本儲存單元。
- batch normalization:批規範化
- Dropout:在模型訓練時隨機讓網路某些隱含層節點不工作,不工作的那些節點可以暫時認為不是網路結構的一部分,但是它的權重得保留下來。
Dropout:While momentum values of 0.9 are common for standard nets,with dropout we found that values around 0.95 to 0.99 work quite a lot better. Using high learning rate and/or momentum significantly speed up learning.a dropout net should typically use 10-100 times the learning rate that was optimal for a standard neural net. - 深度學習的過程其實就是利用訓練資料對模型進行訓練,對資料蘊藏的大量資訊通過機器學習演算法不斷收集到模型中,利用訓練好的模型對現實世界中的相似資料進行特定處理(如分類、識別、檢測、定位)
- 公式y=f(w*x+b),w和b是需要訓練的東西,w稱為權值,b是偏置項,f是啟用函式。
net.params:儲存各層的引數值(w和b)
net.blobs:儲存各層的資料值
v[0].data就是各層的w值,v[1].data是各層的b值
資料剛輸入的時候,叫圖片資料,卷積之後就叫特徵。