語義分割之Dilated Convolution個人總結
1. 空洞卷積
如圖,表示dilation=2時的空洞卷積。
空洞卷積的好處: (1) 正常情況下,為了獲得較大的感受野我們可以選擇大卷積核或者進行pooling操作。選擇大卷積核會增加引數量,而pooling會損失影象的解析度資訊。因此,選擇空洞卷積既可以獲得更大的感受野,又不增加引數量,同時也不會損失解析度資訊。 (2) 空洞卷積是一種稀疏取樣,可以去除影象上的冗餘資訊(並不是所有資訊都必須用到) 這是論文中的一張圖,(a)正常3x3卷積,(b) dilation=2的3x3卷積, © dilation=4的3x3卷積。文中說經過了(a)(b)©卷積,一個畫素的感受野是15,下面是具體過程(反算感受野)。
2. 多尺度聚合
本文除了應用了空洞卷積,還提出了一個"多尺度聚合模組"。 主要是串聯不同dilation的卷積,同時保持size和depth都不變(depth = num_classes)。 由於使用了不同的dilation,可以取樣不同尺度範圍內的資訊,然後串聯。因此這裡稱為多尺度聚合。
不管是空洞卷積,還是多尺度聚合,都是作為一種模組,可以應用各種網路或任務中。
相關推薦
語義分割之Dilated Convolution個人總結
1. 空洞卷積 如圖,表示dilation=2時的空洞卷積。 空洞卷積的好處: (1) 正常情況下,為了獲得較大的感受野我們可以選擇大卷積核或者進行pooling操作。選擇大卷積核會增加引數量,而pooling會損失影象的解析度資訊。因此,選擇空洞卷積既可以獲
語義分割之U-net個人總結
1. 網路結構 U-net的特點在於,通過將下采樣時feature map和上取樣(反捲積)時feature map進行concat,來融合位置資訊和語義資訊。 圖中,input是一張單通道圖片,最後output之前,通道數2表示num_classes=2.
語義分割之FCN個人總結
一、網路結構 FCN涉及到了不同尺度的feature map的融合。 融合理由是:低層特徵具有較多的的解析度資訊,更加精細,但語義資訊較弱。高層特徵具有較多語義資訊,然而較粗糙,解析度資訊不足。為了融合語義資訊和細節資訊,對高層的feature map進行反
語義分割之DeepLab v1、v2、v3、v3+個人總結
1. 基本流程 deeplab v1、v2、v3也用到了空洞卷積–dilated convolution,因為這麼做可以獲得較大的感受野同時又不損失影象的解析度。 然而,經過了poolling,雖然可以提高影象的語義資訊(即"what"),卻會丟失解析度資訊(
語義分割之large kernel matters個人總結
1. Architecture 作者想要解決的是分類與定位的對立矛盾。 分類具有平移不變性,而定位則對位置變化非常敏感。 在分割任務中,全卷積的網路更側重於定位,往往會讓分類任務獲得的感受野較小,這會導致無法獲得足夠的object資訊,不利於分類。 於是作者增大
[深度學習]Semantic Segmentation語義分割之空洞卷積DILATED CONVOLUTIONS(4)
論文全稱:《MULTI-SCALE CONTEXT AGGREGATION BY DILATED CONVOLUTIONS》 論文地址:https://arxiv.org/pdf/1511.07122v2.pdf 論文程式碼: python TensorFlow版本 https
Bootstrap之初始Bootstrap個人總結
1、什麼是Bootstrap? Bootstrap是由Twiter的Mark Otto和Jacob ThornTon 兩位設計師開發的。 Bootstrap是2011年8月在GitHub上釋出的開源產品(開發原始碼)。 Bootstrap是個用於快速開發Web應用程式和網站的前端
[深度學習]Semantic Segmentation語義分割之UNet(2)
論文全稱:《U-Net: Convolutional Networks for Biomedical Image Segmentation》 論文地址:https://arxiv.org/pdf/1505.04597v1.pdf 論文程式碼:https://github.com/jakere
[深度學習]Semantic Segmentation語義分割之FCN(1)
論文全稱:《Fully Convolutional Networks for Semantic Segmentation》 論文地址:https://arxiv.org/pdf/1411.4038.pdf 論文程式碼: python caffe版本 https://github
[深度學習]Semantic Segmentation語義分割之Deeplab v1(5)
論文全稱:《SEMANTIC IMAGE SEGMENTATION WITH DEEP CONVOLUTIONAL NETS AND FULLY CONNECTED CRFS》 論文地址:https://arxiv.org/pdf/1412.7062.pdf 得益於影象空間轉換的不變性,DC
[深度學習]Semantic Segmentation語義分割之SegNet(3)
論文全稱:《SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation》 論文地址:https://arxiv.org/abs/1511.00561 論文程式碼: python
深度學習(9)——無監督語義分割之全卷積域適應網路(譯文)
無監督語義分割之全卷積域適應網路 摘要 深度神經網路的最新進展令人信服地證明了在大型資料集上學習視覺模型的高能力。然而,收集專家標記的資料集尤其是畫素級註釋是一個非常昂貴的過程。一個吸引人的選擇是渲染合成數據(例如,計算機遊戲)並自動生成基礎事實。然而,簡單地
深度學習系列之R-FCN個人總結
關於R-FCN,其實我一開始是完全懵逼的,完全理解不了究竟是什麼樣的流程。今天我不知道自己理解的對不對,但還是把自己理解的做個記錄吧。 1. Introduction 在Faster R-CNN中,RPN生成的region proposal經過RoI p
影象語義分割之FCN和CRF
前言 (嘔血製作啊!)前幾天剛好做了個影象語義分割的彙報,把最近看的論文和一些想法講了一下。所以今天就把它總結成文章啦,方便大家一起討論討論。本文只是展示了一些比較經典和自己覺得比較不錯的結構,畢竟這方面還是有挺多的結構方法了。 介紹 影象語義分
【U-Net】語義分割之U-Net詳解
一、簡介 語義分割(Semantic Segmentation)是影象處理和機器視覺一個重要分支。與分類任務不同,語義分割需要判斷影象每個畫素點的類別,進行精確分割。語義分割目前在自動駕駛、自動摳圖等領域有著比較廣泛的應用。 分割網路現狀: 在Re
影象語義分割(3)-Dilated Conv:使用空洞卷積進行多尺度語義聚合
論文地址: MULTI-SCALE CONTEXT AGGREGATION BY DILATED CONVOLUTIONS 論文程式碼: github連結-caffe ; github連結-tf 1.論文思想 傳統分類網路通過連續的pooling或者其他下采樣層來整合多尺度上
影象語義分割之特徵整合和結構預測
前言 近來閱讀了PASCAL VOC 2012排行榜上前幾的文章,包括PSPNet和林國省老師的幾篇論文,覺得現在在semantic segmentation領域對於Multi-scale Features ensembling的關注又多起來了(當然其實一直都
基於深度學習的圖像語義分割技術概述之5.1度量標準
-s 公平性 的確 由於 表示 n-2 sub 包含 提升 本文為論文閱讀筆記,不當之處,敬請指正。 A Review on Deep Learning Techniques Applied to Semantic Segmentation:原文鏈接 5.1度量標準 為何需
tensorflow學習之路-----卷積神經網絡個人總結
16px 給定 span 參數 隱藏 最大 ros 計算 softmax 卷積神經網絡大總結(個人理解) 神經網絡 1、概念:從功能他們模仿真實數據 2、結構:輸入層、隱藏層、輸出層。其中隱藏層要有的參數:權重、偏置、激勵函數、過擬合 3、功能:能通過模仿,從而學到事件
語義分割--PANet和Understanding Convolution for Semantic Segmentation
語義分割 PAN Pyramid Attention Network for Semantic Segmentation FCN作為backbone的結構對小型目標預測不佳,論文認為這存在兩個挑戰。 物體因為多尺度的原因,造成難以分類。針對這個問題,PSPNet和De