1. 程式人生 > >Non-local Neural Networks學習

Non-local Neural Networks學習

擬解決問題

解決視訊處理中時空域的長距離依賴打開了新的方向,文章採用影象去噪中常用的**非區域性平均**的思想處理區域性特徵與**全圖特徵點**的關係。這種非區域性操作可以很方便的嵌入已有模型,在視訊分類任務中取得的很好的結果,並在在靜態影象識別的任務中超過了何愷明本人ICCV最佳論文的Mask R-CNN。***並且超越CNN***,克服CNN網路過於關注區域性特徵的缺點。
文章主要受到NL-Means在影象去噪應用中的啟發,在處理序列化的任務是考慮所有的特徵點來進行加權計算,克服了CNN網路過於關注區域性特徵的缺點。
影象去噪是非常基礎也是非常必要的研究,去噪常常在更高階的影象處理之前進行,是影象處理的基礎。影象中的噪聲常常用高斯噪聲N(μ,σ^2)來近似表示。 一個有效的去除高斯噪聲的方式是影象求平均,對N幅相同的影象求平均的結果將使得高斯噪聲的方差降低到原來的N分之一,現在效果比較好的去噪演算法都是基於這一思想來進行演算法設計。

摘要

卷積和迴圈網路操作都是常用的處理區域性領域的基礎模組。在本文中,我們提出將非區域性操作(non-local operations)作為捕獲長距離依賴的通用模組。受計算機視覺中的經典非區域性均值方法的啟發,我們的非區域性運算將位置處的響應計算為所有位置處的特徵的加權和。這個構建模組可以應用到許多計算機視覺體系結構中。
在視訊分類的任務上,即使沒有用任何花裡胡哨的技巧,我們的非區域性模型也可以在Kinetics和Charades資料集上超過對手的效果。在靜態影象識別中,我們的非區域性模型在COCO比賽中的三個任務,物件檢測/分割和姿態估計中都效果都有提升。程式碼將隨後提供。

引言

在深層神經網路中,捕獲長期依賴關係是至關重要的。對於連續的資料(例如演講中語言),迴圈操作是時間域上長期依賴問題的主要解決方案。對於影象資料,長距離依賴關係是對大量的卷積操作形成的大的感受野進行建模的。
卷積操作或迴圈操作都是處理空間或者時間上的區域性鄰域的。這樣,只有當這些操作被反覆應用的時候,長距離依賴關係才能被捕獲,訊號才能通過資料不斷地傳播。重複的區域性操作有一些限制:首先,計算效率很低;其次,增加優化難度;最後,這些挑戰導致多跳依賴建模,例如,當訊息需要在遠距離之間來回傳遞時,是非常困難的。
本文中,我們提出將非區域性操作作為一個高效的、簡單的、通用的元件,並用深度神經網路捕捉長距離依賴關係。我們提出的非區域性操作受啟發於計算機視覺中經典非區域性操作的一般含義。直觀地說,非區域性操作在一個位置的計算響應是輸入特性圖中所有位置的特徵的加權總和(如圖1)。一組位置可以在空間、時間或時空上,暗示我們的操作可以適用於影象、序列和視訊問題。

非區域性網路優勢

在深層神經網路中,捕獲長期依賴關係是至關重要的。對於連續的資料(例如演講中語言),迴圈操作是時間域上長期依賴問題的主要解決方案。對於影象資料,長距離依賴關係是對大量的卷積操作形成的大的感受野進行建模的。

卷積操作或迴圈操作都是處理空間或者時間上的區域性鄰域的。這樣,只有當這些操作被反覆應用的時候,長距離依賴關係才能被捕獲,訊號才能通過資料不斷地傳播。重複的區域性操作有一些限制:首先,計算效率很低;其次,增加優化難度;最後,這些挑戰導致多跳依賴建模,例如,當訊息需要在遠距離之間來回傳遞時,是非常困難的。

本文中,我們提出將非區域性操作作為一個高效的、簡單的、通用的元件,並用深度神經網路捕捉長距離依賴關係。我們提出的非區域性操作受啟發於計算機視覺中經典非區域性操作的一般含義。直觀地說,非區域性操作在一個位置的計算響應是輸入特性圖中所有位置的特徵的加權總和(如圖1)。一組位置可以在空間、時間或時空上,暗示我們的操作可以適用於影象、序列和視訊問題。

總結

我們將展示非區域性操作在視訊分類應用中的有效性。在視訊中,遠距離的相互作用發生在空間或時間中的長距離畫素之間。一個非區域性塊是我們的基本單位,可以直接通過前饋方式捕捉這種時空依賴關係。在一些非區域性塊中,我們的網路結構被稱為非區域性神經網路,比2D或3D卷積網路(包括其變體)有更準確的視訊分類效果。另外,非區域性神經網路有比3D卷積網路有更低的計算開銷。我們在Kinetics和Charades資料集上進行了詳細的研究(分別進行了光流、多尺度測試)。我們的方法在所有資料集上都能獲得比最新方法更好的結果。

為了證明非區域性操作的通用性,我們進一步在COCO資料集上進行了目標檢測/分割和姿勢估計的實驗。在MaskR-CNNbaseline的基礎之上,我們的非區域性塊僅需要很小的額外計算開銷,就可以提升在三個任務中的準確度。在視訊和影象中的實驗證明,非區域性操作可以作為設計深度神經網路的一個通用的部件。

相關推薦

Non-local Neural Networks學習

擬解決問題 解決視訊處理中時空域的長距離依賴打開了新的方向,文章採用影象去噪中常用的**非區域性平均**的思想處理區域性特徵與**全圖特徵點**的關係。這種非區域性操作可以很方便的嵌入已有模型,在視訊分類任務中取得的很好的結果,並在在靜態影象識別的任務中超過了

【論文閱讀】Non-local Neural Networks

Non-local Neural Networks Non-local Neural Networks是何凱明大佬組最近發表的一篇文章。一作Xiaolong Wang,本科畢業於華南農業大學,研究生是中山大學,博士去了CMU,然後做出了這麼好的工作,可以說非常勵志了。 類似於Ba

讀書筆記10:Non-local Neural Networks

摘要中,作者開門見山,強調卷積神經網路和迴圈神經網路的操作都是局域化的操作,在本文中,我們提出非局域化的操作(non-local operation),作為抓取長程相互關係的一個一般性的模組(a generic family of building bolcks for ca

【深度網路】Non-local Neural Networks

博文參考了這篇博主的部分理解,傳送門:KFXW Motivation 作者主要是想解決non-local的問題。在目前的深度網路中,一系列的卷積層構成了深度網路的主要架構,每一層網路可以理解為用一個核在該層輸入上做卷積操作,由於卷積核通常是1X1

Non-local Neural Networks 原理詳解及自注意力機制思考

Paper:https://arxiv.org/abs/1711.07971v1 Author:Xiaolong Wang, Ross Girshick, Abhinav Gupta, Kaiming He (CMU, FAIR) 1 創新點 這篇文章非常重要,個人認為應該算是cv領域裡面的自注意

(原)Non-local Neural Networks

轉載請註明出處: https://www.cnblogs.com/darkknightzh/p/12592351.html 論文: https://arxiv.org/abs/1711.07971 第三方pytorch程式碼: https://github.com/AlexHex7/Non-local_pyt

【何凱明】非區域性連線網路 Non-local Neural Network

《Non-local Neural Network》 一、 主要貢獻 1.提出了一種非區域性連線(Non-local operations)的計算塊 (building block),用於處理視訊和影象的長程依賴關係(long-range dependency); 2.在視訊資料集Kinetics

斯坦福大學公開課機器學習Neural Networks,representation: non-linear hypotheses(為什麽需要做非線性分類器)

繼續 例子 產生 成本 log repr 概率 .cn 成了 如上圖所示,如果用邏輯回歸來解決這個問題,首先需要構造一個包含很多非線性項的邏輯回歸函數g(x)。這裏g仍是s型函數(即 )。我們能讓函數包含很多像這的多項式,當多項式足夠多時,那麽你也許能夠得到可以

[譯]深度神經網絡的多任務學習概覽(An Overview of Multi-task Learning in Deep Neural Networks)

noi 使用方式 stats 基於 共享 process machines 嬰兒 sdro 譯自:http://sebastianruder.com/multi-task/ 1. 前言 在機器學習中,我們通常關心優化某一特定指標,不管這個指標是一個標準值,還是企業KPI。為

Neural Networks and Deep Learning學習筆記ch1 - 神經網絡

1.4 true ole 輸出 使用 .org ptr easy isp 近期開始看一些深度學習的資料。想學習一下深度學習的基礎知識。找到了一個比較好的tutorial,Neural Networks and Deep Learning,認真看完了之後覺

吳恩達機器學習第5周Neural Networks(Cost Function and Backpropagation)

and div bsp 關於 邏輯回歸 info src clas 分享 5.1 Cost Function 假設訓練樣本為:{(x1),y(1)),(x(2),y(2)),...(x(m),y(m))} L = total no.of layers in network

【DeepLearning學習筆記】Coursera課程《Neural Networks and Deep Learning》——Week1 Introduction to deep learning課堂筆記

決定 如同 樣本 理解 你是 水平 包含 rod spa Coursera課程《Neural Networks and Deep Learning》 deeplearning.ai Week1 Introduction to deep learning What is a

【DeepLearning學習筆記】Coursera課程《Neural Networks and Deep Learning》——Week2 Neural Networks Basics課堂筆記

樣本數目 and 編程 多次 之間 優化 我們 round 符號 Coursera課程《Neural Networks and Deep Learning》 deeplearning.ai Week2 Neural Networks Basics 2.1 Logistic

課程一(Neural Networks and Deep Learning),第一週(Introduction to Deep Learning)—— 0、學習目標

1. Understand the major trends driving the rise of deep learning. 2. Be able to explain how deep learning is applied to supervised learning. 3. Unde

機器學習與深度學習系列連載: 第二部分 深度學習(十)卷積神經網路 1 Convolutional Neural Networks

卷積神經網路 Convolutional Neural Networks 卷積神經網路其實早在80年代,就被神經網路泰斗Lecun 提出[LeNet-5, LeCun 1980],但是由於當時的資料量、計算力等問題,沒有得到廣泛使用。 卷積神經網路的靈感來自50年代的諾貝爾生物學獎

深度神經網路的多工學習概覽(An Overview of Multi-task Learning in Deep Neural Networks)

譯自:http://sebastianruder.com/multi-task/ 1. 前言 在機器學習中,我們通常關心優化某一特定指標,不管這個指標是一個標準值,還是企業KPI。為了達到這個目標,我們訓練單一模型或多個模型集合來完成指定得任務。然後,我們通過精細調參,來改進模型直至效能不再

機器學習筆記 ---- Neural Networks

Neural Network 1. Model Summary At a very simple level, neurons are basically computational units that take inputs (dendrites) as electrical

如何免費學習coursera上吳恩達的Neural Networks and Deep Learning課程

首先,在註冊時不要選擇免費試用,而是要選擇旁聽。 進入旁聽之後,中間的部分課程是無法做的,這時候,需要用anaconda的jupyter notebook功能來進行作業。具體方法如下: 安裝後開啟進入到一個資料夾目錄,找到這個目錄在你的資料夾的具體位置。並將作業檔案複

Stanford機器學習-Neural Networks : learning

一、代價函式 前面學習了有關神經網路的基本知識和一些小的例子,這節課學習更深層次的東西,首先來看代價函式。 我們假設我們的神經網路如圖所示,給定資料集D={(x1,y1)…(xn,yn)},x表示輸入訊號,y表示輸出訊號,L表示神經網路的層數 Sl表示每一層