卷積操作和反捲積操作的數學解釋
三個月沒更新了啊,回來更一發~~
csdn上主要講一些coding過程中遇到的函式,問題,解決方案。偏實踐
另外,如果你想看一些理論方面的東西,歡迎加我的知乎知乎主頁
csdn私信幾乎不看,有問題交流可以發郵箱:[email protected]或者知乎私信,看到我會第一時間回覆各位
之前的文章裡有人和我提了引數位置的問題,非常感謝。之前我用的tensorflow版本是0.8,在1.0大改以後很多引數交換了位置,所以我更新了版本到1.1.0rc1,請大家看程式碼的時候注意一下版本問題
/*******************************************************************************************************************************************************/
今天來介紹一下Tensorflow裡面的反捲積操作,網上反捲積的用法的介紹比較少,希望這篇教程可以幫助到各位
首先無論你如何理解反捲積,請時刻記住一點,反捲積操作是卷積的反向
如果你隨時都記住上面強調的重點,那你基本就理解一大半了,接下來通過一些函式的介紹為大家強化這個觀念
conv2d_transpose(value, filter, output_shape, strides, padding="SAME", data_format="NHWC", name=None)
除去name引數用以指定該操作的name,與方法有關的一共六個引數:
第一個引數value:指需要做反捲積的輸入影象,它要求是一個Tensor
第二個引數filter:卷積核,它要求是一個Tensor,具有[filter_height, filter_width, out_channels, in_channels]這樣的shape,具體含義是[卷積核的高度,卷積核的寬度,卷積核個數,影象通道數]
第三個引數output_shape:反捲積操作輸出的shape,細心的同學會發現卷積操作是沒有這個引數的,那這個引數在這裡有什麼用呢?下面會解釋這個問題
第四個引數strides:反捲積時在影象每一維的步長,這是一個一維的向量,長度4
第五個引數padding:string型別的量,只能是"SAME","VALID"其中之一,這個值決定了不同的卷積方式
第六個引數data_format:string型別的量,'NHWC'和'NCHW'其中之一,這是tensorflow新版本中新加的引數,它說明了value引數的資料格式。'NHWC'指tensorflow標準的資料格式[batch, height, width, in_channels],'NCHW'指Theano的資料格式,[batch, in_channels,height, width],當然預設值是'NHWC'
開始之前務必瞭解卷積的過程,參考我的另一篇文章:http://blog.csdn.net/mao_xiao_feng/article/details/53444333
首先定義一個單通道圖和3個卷積核
[python] view plain copy print?- x1 = tf.constant(1.0, shape=[1,3,3,1])
- kernel = tf.constant(1.0, shape=[3,3,3,1])
x1 = tf.constant(1.0, shape=[1,3,3,1])
kernel = tf.constant(1.0, shape=[3,3,3,1])
先彆著急!我們不直接用反捲積函式,而是再定義一些圖[python] view plain copy print?
- x2 = tf.constant(1.0, shape=[1,6,6,3])
- x3 = tf.constant(1.0, shape=[1,5,5,3])
x2 = tf.constant(1.0, shape=[1,6,6,3])
x3 = tf.constant(1.0, shape=[1,5,5,3])
x2是6×6的3通道圖,x3是5×5的3通道圖
好了,接下來對x3做一次卷積操作[python] view plain copy print?
- y2 = tf.nn.conv2d(x3, kernel, strides=[1,2,2,1], padding=“SAME”)
y2 = tf.nn.conv2d(x3, kernel, strides=[1,2,2,1], padding="SAME")
所以返回的y2是一個單通道的圖,如果你瞭解卷積過程,很容易看出來y2是[1,3,3,1]的Tensor,y2的結果如下:[python] view plain copy print?
- [[[[ 12.]
- [ 18.]
- [ 12.]]
- [[ 18.]
- [ 27.]
- [ 18.]]
- [[ 12.]
- [ 18.]
- [ 12.]]]]
[[[[ 12.]
[ 18.]
[ 12.]]
[[ 18.]
[ 27.]
[ 18.]]
[[ 12.]
[ 18.]
[ 12.]]]]
又一個很重要的部分!tf.nn.conv2d中的filter引數,是[filter_height, filter_width, in_channels, out_channels]的形式,而tf.nn.conv2d_transpose中的filter引數,是[filter_height, filter_width, out_channels,in_channels]的形式,注意in_channels和out_channels反過來了!因為兩者互為反向,所以輸入輸出要調換位置
既然y2是卷積操作的返回值,那我們當然可以對它做反捲積,反捲積操作返回的Tensor,應該和x3的shape是一樣的(不難理解,因為是卷積的反過程)[python] view plain copy print?- y3 = tf.nn.conv2d_transpose(y2,kernel,output_shape=[1,5,5,3], strides=[1,2,2,1],padding=“SAME”)
y3 = tf.nn.conv2d_transpose(y2,kernel,output_shape=[1,5,5,3], strides=[1,2,2,1],padding="SAME")
好,現在返回的y3果然是[1,5,5,3]的Tensor,結果如下:[python] view plain copy print?
- [[[[ 12.12.12.]
- [ 30.30.30.]
- [ 18.18.18.]
- [ 30.30.30.]
- [ 12.12.12.]]
- [[ 30.30.30.]
- [ 75.75.75.]
- [ 45.45.45.]
- [ 75.75.75.]
- [ 30.30.30.]]
- [[ 18.18.18.]
- [ 45.45.45.]
- [ 27.27.27.]
- [ 45.45.45.]
- [ 18.18.18.]]
- [[ 30.30.30.]
- [ 75.75.75.]
- [ 45.45.45.]
- [ 75.75.75.]
- [ 30.30.30.]]
- [[ 12.12.12.]
- [ 30.30.30.]
- [ 18.18.18.]
- [ 30.30.30.]
- [ 12.12.12.]]]]
[[[[ 12. 12. 12.]
[ 30. 30. 30.]
[ 18. 18. 18.]
[ 30. 30. 30.]
[ 12. 12. 12.]]
[[ 30. 30. 30.]
[ 75. 75. 75.]
[ 45. 45. 45.]
[ 75. 75. 75.]
[ 30. 30. 30.]]
[[ 18. 18. 18.]
[ 45. 45. 45.]
[ 27. 27. 27.]
[ 45. 45. 45.]
[ 18. 18. 18.]]
[[ 30. 30. 30.]
[ 75. 75. 75.]
[ 45. 45. 45.]
[ 75. 75. 75.]
[ 30. 30. 30.]]
[[ 12. 12. 12.]
[ 30. 30. 30.]
[ 18. 18. 18.]
[ 30. 30. 30.]
[ 12. 12. 12.]]]]
這個結果是怎麼得來的?可以用一張動圖來說明,圖片來源:反捲積的真正含義
看起來,tf.nn.conv2d_transpose的output_shape似乎是多餘的,因為知道了原圖,卷積核,步長顯然是可以推出輸出影象大小的,那為什麼要指定output_shape呢?
看這樣一種情況:[python] view plain copy print?
- y4 = tf.nn.conv2d(x2, kernel, strides=[1,2,2,1], padding=“SAME”)
y4 = tf.nn.conv2d(x2, kernel, strides=[1,2,2,1], padding="SAME")
我們把上面的x2也做卷積,獲得shape為[1,3,3,1]的y4如下:[python] view plain copy print?
- [[[[ 27.]
- [ 27.]
- [ 18.]]
- [[ 27.]
- [ 27.]
- [ 18.]]
- [[ 18.]
- [ 18.]
- [ 12.]]]]
[[[[ 27.]
[ 27.]
[ 18.]]
[[ 27.]
[ 27.]
[ 18.]]
[[ 18.]
[ 18.]
[ 12.]]]]
[1,6,6,3]和[1,5,5,3]的圖經過卷積得到了相同的大小,[1,3,3,1]
讓我們再反過來看,那麼[1,3,3,1]的圖反捲積後得到什麼呢?產生了兩種情況。所以這裡指定output_shape是有意義的,當然隨意指定output_shape是不允許的,如下情況程式會報錯:[python] view plain copy print?
- y5 = tf.nn.conv2d_transpose(x1,kernel,output_shape=[1,10,10,3],strides=[1,2,2,1],padding=“SAME”)
y5 = tf.nn.conv2d_transpose(x1,kernel,output_shape=[1,10,10,3],strides=[1,2,2,1],padding="SAME")
以上是stride為2的情況,為1時也類似,當卷積核大於原圖時,預設用VALID方式(用SAME就無意義了)參考下圖:
程式清單:
[python] view plain copy print?- import tensorflow as tf
- x1 = tf.constant(1.0, shape=[1,3,3,1])
- x2 = tf.constant(1.0, shape=[1,6,6,3])
- x3 = tf.constant(1.0, shape=[1,5,5,3])
- kernel = tf.constant(1.0, shape=[3,3,3,1])
- y1 = tf.nn.conv2d_transpose(x1,kernel,output_shape=[1,6,6,3],
- strides=[1,2,2,1],padding=“SAME”)
- y2 = tf.nn.conv2d(x3, kernel, strides=[1,2,2,1], padding=“SAME”)
- y3 = tf.nn.conv2d_transpose(y2,kernel,output_shape=[1,5,5,3],
- strides=[1,2,2,1],padding=“SAME”)
- y4 = tf.nn.conv2d(x2, kernel, strides=[1,2,2,1], padding=“SAME”)
- ””’
- Wrong!!This is impossible
- y5 = tf.nn.conv2d_transpose(x1,kernel,output_shape=[1,10,10,3],strides=[1,2,2,1],padding=”SAME”)
- ”’
- sess = tf.Session()
- tf.global_variables_initializer().run(session=sess)
- x1_decov, x3_cov, y2_decov, x2_cov=sess.run([y1,y2,y3,y4])
- print(x1_decov.shape)
- print(x3_cov.shape)
- print(y2_decov.shape)
- print(x2_cov.shape)
import tensorflow as tf
x1 = tf.constant(1.0, shape=[1,3,3,1])
x2 = tf.constant(1.0, shape=[1,6,6,3])
x3 = tf.constant(1.0, shape=[1,5,5,3])
kernel = tf.constant(1.0, shape=[3,3,3,1])
y1 = tf.nn.conv2d_transpose(x1,kernel,output_shape=[1,6,6,3],
strides=[1,2,2,1],padding="SAME")
y2 = tf.nn.conv2d(x3, kernel, strides=[1,2,2,1], padding="SAME")
y3 = tf.nn.conv2d_transpose(y2,kernel,output_shape=[1,5,5,3],
strides=[1,2,2,1],padding="SAME")
y4 = tf.nn.conv2d(x2, kernel, strides=[1,2,2,1], padding="SAME")
'''
Wrong!!This is impossible
y5 = tf.nn.conv2d_transpose(x1,kernel,output_shape=[1,10,10,3],strides=[1,2,2,1],padding="SAME")
'''
sess = tf.Session()
tf.global_variables_initializer().run(session=sess)
x1_decov, x3_cov, y2_decov, x2_cov=sess.run([y1,y2,y3,y4])
print(x1_decov.shape)
print(x3_cov.shape)
print(y2_decov.shape)
print(x2_cov.shape)
</div>
PS:
反捲積中需要注意多了一個output_shape引數,注意它的引數設定;
注意tf.nn.conv2d_transpose中的kernel如何設定[filter_size,filter_size,output_channel,input_channel]。
注意無論卷積或者非卷積運算在實現上豆採用兩個矩陣進行矩陣乘法運算,因此需要注意,在卷積的時候,我們採用怎樣的矩陣進行運算,轉化為對應的矩陣,注意反捲積(轉置卷積)的過程中,兩個矩陣代表的什麼東東?一個代表資料,一個代表卷積核中的資料,卷積為Y_=CX_,其中Y_和X_都為[x,1]的資料格式,Y_代表卷積後的資料,X_代表卷積前的資料!反捲積則為X_=C(T)Y_,其中C(T)是個拓普利茲矩陣,可以百度一下這個矩陣的定義哈!
參考:
【caffe】caffe之反捲積層