1. 程式人生 > >Detail-Preserving Pooling in Deep Networks閱讀

Detail-Preserving Pooling in Deep Networks閱讀

理解

首先,主要講下對文章的主要理解。簡而言之,這篇文章目的是保留影象細節,拒絕最大或者平均池化的簡單粗暴操作,可以自適應的學習的加權型池化。
文章借鑑的思想是DDIP

綜述

池化的作用:降低引數量,擴大感受野,增強不變性。
目前常用的池化:最大,平均,帶步長的卷積。等等。最大池化是選擇領域內最大的,平均是對領域統一的貢獻。而strided conv則是簡單選擇一個節點作為池化後的節點。

文章內容

DDIP

俗話說,一張圖可以解釋一切。就是下面這張圖就能說明DDIP的思想。
DDIP的示意圖
O是輸出影象,上面一路是經過box filter-降取樣-高斯濾波之後的降取樣圖。經過逆雙邊濾波的作用,產生不同的加權結果,這樣就是產生了擴大細節的作用。
總之就是加權的過程。

DDP

DDP的公式


根據對reward function的不同,存在了對稱DDP和不對稱DDP兩種。公式見論文公式5,6。
那麼對於上面公式中的I(~)是線性降取樣的結果。公式為
在這裡插入圖片描述
在論文中,根據對F的不同,可以產生Full-dPP和lite-DPP。
Full-dpp是指F為不標準的二維濾波,增加了相應大小的引數,可以學習。
對應的lite-dpp 則是為平均權重了。

討論

接下來的文章中,文章說明了引數的求導結果。並且說明了引數的增加相對於卷積等可以忽略,同時也證明了在特殊情況下ave-pooling 和 max-pooling可以是dpp的特例。
在實驗結果中,DPP展現了可以提升0.5-1個百分點的優勢。