1. 程式人生 > 實用技巧 >TARGETDROP: A TARGETED REGULARIZATION METHOD FOR CONVOLUTIONAL NEURAL NETWORKS

TARGETDROP: A TARGETED REGULARIZATION METHOD FOR CONVOLUTIONAL NEURAL NETWORKS

TARGETDROP: A TARGETED REGULARIZATION METHOD FOR CONVOLUTIONAL NEURAL NETWORKS

Dense Object Detection

一. 論文簡介

筆者感覺有點水的文章,想著既然看了就做個小記錄吧

主要做的貢獻如下(可能之前有人已提出):

  1. 提出一個目標正則化模組

二. 模組詳解

2.1 論文詳解

  1. 文章的出發點?下圖展示了三種DropOut的實際表現,第三種帶有目標性
  1. TargetDropout

上面的圖完全概括了這篇文章的核心,下面一步步說明:

  • 假設 \(H\) 為當前 \(feature\ map\)
    , \(shape=[b,c,w,h]\)
  • \(w,h\) 軸進行均值操作,類似SE Attention模組的做法,參見論文公式(1),得到 \(v_c\)
  • 再進行兩個Full-Connect層操作,中間帶兩個啟用函式-Relu+Sigmoid。得到 \(M\),參見論文公式(2)。這裡的操作意義: 論文說是為了進一步獲得通道之間的獨立性。
  • 先對 \(M\) 進行排序,然後選擇 \(Top-K\) ,選擇數量又一個引數 \(\gamma\) 進行控制,比如 \(channel=5,\gamma=0.4,top-k=2\). 再將 \(M\) 進行二值化,屬於 \(top-k\) 為設定為1,不屬於設定為0,論文公式(3)所示。
  • Mask的位置 \([b,c]\) 已經確定(B是batch不用管,C按照\(top-k\)),\([w,h]\) 位置按照最大值即可。Mask的大小:按照公式(4)進行(就是一個Kernel,設定大小即可),掩膜操作直接相乘(Mask區域為0,其它區域為1),按照公式(5)。最後進行歸一化介面,按照公式(6)。
  • 很簡單的一個模組,就是加了一個排序操作,訓練階段有點費時,推理階段這個模組不起作用(這一點還是比較好的,相當於輔助訓練)。
# 程式碼略
# 感覺作用不大,不去嘗試了

三. 參考文獻

  • 原始論文