深度學習超分辨開山之作SRCNN
阿新 • • 發佈:2019-01-05
作為將深度學習應用於超分辨的開山之作,論文的思路來源於前人的基於稀疏編碼的單幀超分辨重建演算法。作者設計了一個3層的CNN,以逐畫素損失為代價函式。感覺沒有什麼特別的技巧,取得了state of art的效果。
網路結構
SRCNN- 預測過程:首先將影象插值一定的倍數作為輸入影象,然後通過網路,輸出結果。
- 訓練過程:對高解析度影象隨機選取一些patch,然後進行降取樣,然後進行升取樣,以此作為輸入,並以原始高解析度影象作為目標,採用逐畫素損失為優化目標。
濾波器的大小分別為:3 x 9 x 9 x 64, 64 x 1 x 1 x 35, 35 x 5 x 5 x 1。
整個卷積的過程不改變特徵圖的大小,讓人簡直不敢相信的就取得了state of art的效果。
設計思路
作者這個思路是從稀疏編碼得來的,並把上述過程分別表述為:Patch extraction, Non-linear mapping, Reconstruction。
- Patch extraction: 提取影象Patch,進行卷積提取特徵,類似於稀疏編碼中的將影象patch對映到低解析度字典中
- Non-linear mapping: 將低解析度的特徵對映為高解析度特徵,類似於字典學習中的找到影象patch對應的高分辨字典
- Reconstruction:根據高解析度特徵進行影象重建。類似於字典學習中的根據高解析度字典進行影象重建