VDCN
提出SRCNN問題
- context未充分利用
- Convergence 慢
- Scale Factor 訓練指定fator的模型再重新訓練其他fator的模型低效
context
對於更大的scale-fator 需要更大的receptive-field(接受域,也就是過濾器),如果接受域學習了這張圖像模式,也就能把這張圖像重建成超分辨率圖像,所以網絡第一層是過濾器是 3 x 3 *64
往後每層的filter 大小為 (2D+1,2D+1),D為網絡層數,第一層與最後一層的大小相同。
論文指出中央像素受周圍像素所約束,所以類似SRCNN等crop的方法,將會導致邊界信息不能很好的被周圍像素推斷,而作者則對input進行的padding再送入網絡,這樣也使得網絡輸出與輸入相同。
(這裏與SRCNN另外一個預處理方式不同的就是crop時不crop重疊部分)
Convergence
一張高分辨圖片包含了低頻信息(低分辨率圖片)與高頻信息(殘差圖像與圖像細節)
論文指出SRCNN收斂慢的原因可能是SRCNN重建HR(重建高頻信息)圖像時重建了低頻信息與高頻信息,重建低頻信息的過程類似自編碼器,而本文則直接重建高頻信息(殘差圖像與圖像細節)
設 x 為 低分辨率圖像, y 為高分辨率圖像 則 f(x) 為預測的 y 值,使用均方差損失函數
因為輸入與預測輸出有很大相似,所以定義 r = y - x ,則損失函數 為:
為了提高收斂速率,作者將學習速率初始化為 0.1 往後每20個epchos 降低 10倍,還使用了梯度剪枝
Single-Scale
大部分模型由指定的fator訓練,對於特定的fator就重新訓練,這很低效,作者把一個minibatch由不同縮放因子的64個sub-image組成放入網絡訓練,
訓練結果證明了由特定fator訓練的模型再更大的fator上測試性能不佳,而由多個fator上處理再訓練的模型,性能超過Bicubic
模型預處理方式與SRCNN大部分相同:bicubic先下采樣,後上采樣作為輸入圖像
VDCN