1x1的卷積-模型壓縮
什麼是卷積?
如圖:
詳細見卷積介紹。
1x1的卷積如何實現模型壓縮
對於channel為1的影象,沒有作用,對於大於1的影象就凸顯作用了。
舉個例子,如圖,輸入影象是28x28x192,輸出是28x28x32。
如果卷積核為5x5x32時候,引數量是:(5x5x32 + 1)x 192 = 153792。
中間加入一層1x1的卷積,降低輸入的channel,再使用同樣卷積核,引數量為:
(1x1x16+ 1)x192 + (5x5x32 + 1)x16 = 16080,降低為原來:十分之一。
因此這1x1的卷積核也被稱為瓶頸層(bottleneck layer)。
效能?
1x1的卷積和被廣泛應用,合理的構建bottleneck layer,可以顯著減少引數,加速訓練,且不降低網路效能,具體見吳恩達課程,youtobe,網易雲課程。
Reference
相關推薦
1x1的卷積-模型壓縮
什麼是卷積? 如圖: 詳細見卷積介紹。 1x1的卷積如何實現模型壓縮 對於channel為1的影象,沒有作用,對於大於1的影象就凸顯作用了。 舉個例子,如圖,輸入影象是28x28x192,輸出是28x28x32。 如果卷積核為5x5x32時候,引
吳恩達 DeepLearning.ai 課程提煉筆記(4-2)卷積神經網絡 --- 深度卷積模型
mes and shift abd actual 應用 比賽 特征 通道 1. 經典的卷積網絡 介紹幾種經典的卷積神經網絡結構,分別是LeNet、AlexNet、VGGNet。 LeNet-5: LeNet-5主要是針對灰度設計的,所以其輸入較小,為 ,其結構如下:
1x1卷積
技術 運行 jpg 們的 inf .com 一個 關註 結構 你可能會想為什麽有人會用1x1卷積,因為它關註的不是一塊像素,而是一個像素,圖1 圖1 我們看看傳統的卷積,它基本上是運行在一個小塊圖像上的小分類器,但僅僅是個線性分類器。圖2 圖2 如果你在中間加一個1x1
使用keras,手動搭建卷積模型
卷積 color compile flatten point span 結構 shape 圖像 ####本文使用keras,手動搭建卷積模型 1 import numpy as np 2 import tensorflow as tensorflow 3 4 fr
CNN 中, 1X1卷積核到底有什麽作用
復雜 論文 減少 tail 單個 並行 work inception con 轉自https://blog.csdn.net/u014114990/article/details/50767786 從NIN 到Googlenet mrsa net 都是用了這個,為什麽呢 發
1x1卷積核的理解
1x1卷積核的作用主要有兩點: 1、實現跨通道的資訊融合 2、實現通道數的升維與降維 3、增加網路的非線性 實現跨通道資訊的融合:加入當前層的特徵矩陣為224x224x100,而下一層想要得到224x224x50,這時就可以通過1x1的卷積核進行跨通道資訊融合,當然這時也
【深度學習】1x1卷積的作用
1x1卷積最初引起研究者的重視應該是在Network in Network這篇文章裡,後面在GoogLeNet和ResNet中都使用了1x1卷積,那麼1x1卷積到底有什麼用呢? 我認為主要作用有三點:
CNN: 1x1卷積層的精妙之處
現在各種神經網路都會用到1x1 conv,它到底起到什麼作用呢?要回答這個問題,先從最經典的Inception模型說起,Figure 1是Inception-ResNet-v2的block架構圖。 作用一:改變矩陣維度 block中每個sublayer的第一
卷積神經網路中1x1卷積的作用
1. 來源 [1312.4400] Network In Network (如果1×1卷積核接在普通的卷積層後面,配合啟用函式,即可實現network in network的結構) 2. 應用 GoogleNet中的Inception、ResNet中的殘差模組
吳恩達深度學習4-Week1課後作業1-卷積模型Step by Step
一、deeplearning-assignment 在本次任務中,我們將學習用numpy實現卷積(CONV)層和池化(POOL)層,由於大多數深度學習工程師不需要關注反向傳遞的細節,而且卷積網路的反向傳遞很複雜,所以在本次作業中只討論關於前向傳播的處理細節。 用 pyth
CNN中1X1卷積的作用
idea1 1.進行卷積核通道數的升維降維,相當於在channel方向上進行壓縮,減少引數;(計算具體見連線) 2.旨在對每個空間位置的D維向量做一個相同的線性變換,增加非線性; idea2 1.增加模型深度,一定程度上提升模型的表徵能力; 2.1*1chann
1X1卷積的作用
上圖原來輸入是6個feature,然後經過1x1的卷積核(實質是經過學習到的6個權重調節的線性疊加)得到一個特徵圖F11有四個1X1的卷積核,則得到4個特徵圖,分別為F11,F12,F13,F14。這樣原來的6個特徵圖,變為了4個特徵圖,實現了降維。同樣 如果卷積核
卷積到底是如何操作的?1x1卷積?引數如何計算?
目錄 卷積的特性 卷積到底是如何操作的 1. 對於一個特徵圖(如灰度圖) 卷積就是對應元素乘積的求和,然後在加上一個非線性函式。 但是上面的例子只有一個輸入channel和一個卷積核,當有很多channel和多個卷積核
吳恩達Coursera深度學習課程 DeepLearning.ai 提煉筆記(4-2)-- 深度卷積模型
以下為在Coursera上吳恩達老師的 DeepLearning.ai 課程專案中,第四部分《卷積神經網路》第二週課程“深度卷積模型”關鍵點的筆記。本次筆記幾乎涵蓋了所有視訊課程的內容。在閱讀以下筆記的同時,強烈建議學習吳恩達老師的視訊課程,視訊請至
吳恩達Coursera深度學習(4-2)深度卷積模型
Class 4:卷積神經網路 Week 2:深度卷積模型 1. 經典的卷積網路 介紹幾種經典的卷積神經網路結構,分別是LeNet、AlexNet、VGGNet。 LeNet-5: LeNet-5主要是針對灰度設計的,所以其輸入較小,為32×
CNN 中, 1X1卷積核到底有什麼作用呢?
我來說說我的理解,我認為1×1的卷積大概有兩個方面的作用吧:1. 實現跨通道的互動和資訊整合2. 進行卷積核通道數的降維和升維下面詳細解釋一下:1. 這一點孫琳鈞童鞋講的很清楚。1×1的卷積層(可能)引起人們的重視是在NIN的結構中,論文中林敏師兄的想法是利用MLP代替傳統的線性卷積核,從而提高網路的表達能力
一文讀懂卷積神經網路中的1x1卷積核
前言 在介紹卷積神經網路中的1x1卷積之前,首先回顧卷積網路的基本概念[1]。 卷積核(convolutional kernel):可以看作對某個區域性的加權求和;它是對應區域性感知,它的原理是在觀察某個物體時我們既不能觀察每個畫素也不能一次觀察整體,而是
以V1中Inception Module為例說明1x1卷積核的作用
http://blog.csdn.net/u014114990/article/details/50767786 http://blog.csdn.net/u014114990/article/details/50767786
1X1卷積核到底有什麼作用
1*1的卷積核在NIN、Googlenet中被廣泛使用,但其到底有什麼作用也是一直困擾的問題,這裡總結和歸納下在網上查到的自認為很合理的一些答案,包括1)跨通道的特徵整合2)特徵通道的升維和降維 3)減少卷積核引數(簡化模型) 部分轉載自caffe.cn 作用:1. 實
卷積神經網絡(CNN)模型結構
數學 deep 2個 領域 全連接 平均值 over amp title 卷積神經網絡(CNN)模型結構 轉載:http://www.cnblogs.com/pinard/p/6483207.html 看到的一片不錯的文章,先轉過來留著,怕以後博