DropBlock: A regularization method for convolutional networks
arxiv上一篇新文章,講如何在卷積層進行dropout來防止網路過擬合。
原來的dropout方法多是作用在全連線層上,在卷積層應用dropout方法意義不大。文章認為是因為每個featuremap的位置都有一個感受野範圍,僅僅對單個畫素位置進行dropout並不能降低featuremap學習的特徵範圍,也就是說網路仍可以通過該位置的相鄰位置元素去學習對應的語義資訊,也就不會促使網路去學習更加魯邦的特徵。
既然單獨的對每個位置進行dropout並不能提高網路的泛化能力,那麼很自然的,如果我們按照一塊一塊的去dropout,就自然可以促使網路去學習更加魯邦的特徵。思路很簡單,就是在featuremap上去一塊一塊的找,進行歸零操作,類似於dropout,叫做dropblock。
上圖就是論文整體思想介紹。dropblock有三個比較重要的引數,一個是block_size,用來控制進行歸零的block大小;一個是 γ,用來控制每個卷積結果中,到底有多少個channel要進行dropblock;最後一個是keep_prob,作用和dropout裡的引數一樣。
論文用翔實的實驗來證明了dropblock的有效性。經過實驗證明,block_size控制為7*7效果最好,對於所有的featuremap都一樣, γ通過一個公式來控制,keep_prob則是一個線性衰減過程,從最初的1到設定的閾值,論文通過實驗表明這種方法效果最好。
方法還是很有效的,思路也很清晰,也很簡單,有機會可以在自己的網路內嘗試一下。
相關推薦
DropBlock: A regularization method for convolutional networks
arxiv上一篇新文章,講如何在卷積層進行dropout來防止網路過擬合。 原來的dropout方法多是作用在全連線層上,在卷積層應用dropout方法意義不大。文章認為是因為每個featuremap的位置都有一個感受野範圍,僅僅對單個畫素位置進行dropout並不能降低featur
DropBlock的不適用情況: A regularization method for convolutional networks
谷歌這篇文章,針對之前傳統的dropout進行改進(隨機drop,畫素之間的相互關係仍然能夠學習到,因此目前大多隻在全連線層中用dropout),提出專門針對卷積層的dropout方法 找到一個程式碼運行了一下。(mnist資料集,兩層卷積,兩層全連線。) 加上DB(k
(原)DropBlock A regularization method for convolutional networks
轉載請註明出處: https://www.cnblogs.com/darkknightzh/p/9985027.html 論文網址: https://arxiv.org/abs/1810.12890 第三方實現: Pytorch:https://github.com/Randl/DropBlock-
論文筆記:IRGAN:A Minimax Game for Unifying Generative and Discriminative Information
2017 SIGIR 簡單介紹 IRGAN將GAN用在資訊檢索(Information Retrieval)領域,通過GAN的思想將生成檢索模型和判別檢索模型統一起來,對於生成器採用了基於策略梯度的強化學習來訓練,在三種典型的IR任務上(四個資料集)得到了更顯著的效果。 生成式和判別式的檢索模型 生成式檢索模
Deep Learning 33:讀論文“Densely Connected Convolutional Networks”-------DenseNet 簡單理解
1 Model created 2 ____________________________________________________________________________________________________ 3 Layer (type) Output Shape P
深度學習論文翻譯解析(七):Support Vector Method for Novelty Detection
論文標題:Support Vector Method for Novelty Detection 論文作者:Bernhard Scholkopf, Robert Williamson, Alex Smola ..... 論文地址:http://papers.nips.cc/paper/1723-support
深層CNN的調參經驗 | A practical theory for designing very deep convolutional neural networks
A practical theory for designing very deep convolutional neural networks 兩個前提假設: 1.對於每一個卷積層,其學習更復雜表示的能力應該被保證 2.最高層的感受野應該不大於影象範圍
A Sensitivity Analysis of Convolutional Neural Networks for Sentence Classification
引言 Ye Zhang在2016年掛在arXiv上的論文,從名字大概可以看出來,這是一篇CNN調參指南。 概述 模型方面用的是單層CNN,主要是CNN用做文字分類方面的研究,模型結構如下所示: 上述模型來自Convolutional Neural Networks for
論文閱讀筆記二十四:Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition(SPPNet CVPR2014)
分享圖片 介紹 bin con strong map com 提高 https 論文源址:https://arxiv.org/abs/1406.4729 tensorflow相關代碼:https://github.com/peace195/sppnet 摘要
譯:Two-Stream Convolutional Networks for Action Recognition in Videos.md
摘要:我們研究了用於訓練視訊中行為識別的深度卷積網路架構。這個挑戰是捕捉靜態幀中的外觀和連續幀間的運動的互補資訊。我們也旨在推廣這個在資料驅動的學習框架中表現得最好的手工特徵。 本文一共做出了3個貢獻: 首先,本文提出了一個two-stream卷積網路架構,這
論文閱讀筆記四十一:Very Deep Convolutional Networks For Large-Scale Image Recongnition(VGG ICLR2015)
結合 等價 選擇 mac 不同的 works info 內存 enc 論文原址:https://arxiv.org/abs/1409.1556 代碼原址:https://github.com/machrisaa/tensorflow-vgg 摘要 本
深度學習研究理解10:Very Deep Convolutional Networks for Large-Scale Image Recognition
本文是牛津大學 visual geometry group(VGG)Karen Simonyan 和Andrew Zisserman 於14年撰寫的論文,主要探討了深度對於網路的重要性;並建立了一個19層的深度網路獲得了很好的結果;在ILSVRC上定位第一,分類第二。 一:
深度學習論文翻譯解析(九):Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
論文標題:Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition 標題翻譯:用於視覺識別的深度卷積神經網路中的空間金字塔池 論文作者:Kaiming He, Xiangyu Zhang, Shao
VGGnet論文總結(VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION)
lrn cli 共享 融合 loss sca 得到 同時 works VGGNet的主要貢獻: 1、增加了網絡結構的深度 2、使用了更小的filter(3*3) 1 introduction 這部分主要說明了,由於在所有的卷積網絡上使用了3*3的filter,所以使
論文閱讀:A Primer on Neural Network Models for Natural Language Processing(1)
選擇 works embed 負責 距離 feature 結構 tran put 前言 2017.10.2博客園的第一篇文章,Mark。 由於實驗室做的是NLP和醫療相關的內容,因此開始啃NLP這個硬骨頭,希望能學有所成。後續將關註知識圖譜,深度強化學習等內
TypeError: Cannot create a consistent method resolution order (MRO) for bases P1, P2
typeerror: cannot create a consistent method resolution order (mro) for bases p1 p2 新式類多重繼承原則:廣度優先,從左到右 ==================正確================== In [19]:
外顯子分析彈錯解決方案:Exception in thread "main" picard.PicardException: New reference sequence does not contain a matching contig for NC_007605
clear except -c 解決 als index false quest div 最近從公共數據庫下載了一堆bam文件和reference 基因組文件,重新分析外顯子流程時,跑出了“Exception in thread "main" picard.Pi
FCN筆記(Fully Convolutional Networks for Semantic Segmentation)
width height training 註意 die str 指標 his repl FCN筆記(Fully Convolutional Networks for Semantic Segmentation) (1)FCN做的主要操作 (a)將之前分類網絡的全連接
kafka-rest:A Comprehensive, Open Source REST Proxy for Kafka
machine cost ace def hms mas benchmark file oss Ewen Cheslack-Postava March 25, 2015 時間有點久,但講的還是很清楚的 As part of Confluent Platform 1.0
Person Re-identification 系列論文筆記(二):A Discriminatively Learned CNN Embedding for Person Re-identification
triplet put ali com multi 深度學習 native alt 出現 A Discriminatively Learned CNN Embedding for Person Re-identification Zheng Z, Zheng L, Ya