Improving Adversarial Robustness via Channel-Wise Activation Suppressing
阿新 • • 發佈:2021-07-21
目錄
\[f^l \in \mathbb{R}^{H \times W \times K},
\] 就是樣本標籤, 而測試時,
\[\hat{y} = \arg \max_i \hat{f}^TM_i,
\]
概
這兩篇論文發現natural和adversarial樣本在啟用層的大小和分佈有顯著的不同.
主要內容
如上兩圖所示, 對抗樣本的magnitude相較於乾淨樣本要普遍大一些, 重要性的分佈相較於乾淨分佈更趨於均勻分佈.
所以可以認為, 倘若我們能夠恢復正常的大小以及迴歸正常的重要性指標, 那麼就能夠提高網路魯棒性.
注: 上面的重要性分佈是這麼計算的: 對於固定的類, 計算每個channel對於判別為該類的貢獻度是否超越一個閾值, 以統計的綜合頻率為最後的重要性.
對於每一個block (比如resnet中的block), 在最後的輸出部分輔以重加權, 使得重要的啟用層能夠更加突出.
重加權是通過新的全連線層實現的, 假設特徵圖大小為
其中\(K\)為channels的數目, 首先通過GAP得到:
\[\hat{f}_k^l = \frac{1}{H \times W} \sum_i \sum_j f_k^l (i, j). \]再通過全連線層\(M^l = [M_1^l, \cdots, M_C^l] \in \mathbb{R}^{K \times C}\)重加權
\[\tilde{f}^l = \left \{ \begin{array}{ll} f^l \otimes M_y^l, & \text{training}, \\ f^l \otimes M_{\hat{y}}^l, & \text{test}. \end{array} \right . \]其中訓練時, \(y\)
即預測值.
所以, 顯然為了讓\(M_y\)能夠與樣本標籤緊密聯絡, 在訓練的時候, 需要額外最小化一個交叉熵損失:
這裡\(x'\)表示對抗樣本.
CIFS的思路是類似的, 這裡不多贅述了.