1. 程式人生 > >【TensorFlow】tf.nn.max_pool實現池化操作

【TensorFlow】tf.nn.max_pool實現池化操作

版權宣告:本文為博主原創文章,轉載請註明出處。    https://blog.csdn.net/mao_xiao_feng/article/details/53453926 max pooling是CNN當中的最大值池化操作,其實用法和卷積很類似

有些地方可以從卷積去參考【TensorFlow】tf.nn.conv2d是怎樣實現卷積的? 

tf.nn.max_pool(value, ksize, strides, padding, name=None)

引數是四個,和卷積很類似: 第一個引數value:需要池化的輸入,一般池化層接在卷積層後面,所以輸入通常是feature map,依然是[batch, height, width, channels]這樣的shape

第二個引數ksize:池化視窗的大小,取一個四維向量,一般是[1, height, width, 1],因為我們不想在batch和channels上做池化,所以這兩個維度設為了1

第三個引數strides:和卷積類似,視窗在每一個維度上滑動的步長,一般也是[1, stride,stride, 1]

第四個引數padding:和卷積類似,可以取'VALID' 或者'SAME'

返回一個Tensor,型別不變,shape仍然是[batch, height, width, channels]這種形式

示例原始碼:

假設有這樣一張圖,雙通道

第一個通道:

第二個通道:

用程式去做最大值池化:

import tensorflow as tf   a=tf.constant([         [[1.0,2.0,3.0,4.0],         [5.0,6.0,7.0,8.0],         [8.0,7.0,6.0,5.0],         [4.0,3.0,2.0,1.0]],         [[4.0,3.0,2.0,1.0],          [8.0,7.0,6.0,5.0],          [1.0,2.0,3.0,4.0],          [5.0,6.0,7.0,8.0]]     ])   a=tf.reshape(a,[1,4,4,2])   pooling=tf.nn.max_pool(a,[1,2,2,1],[1,1,1,1],padding='VALID') with tf.Session() as sess:     print("image:")     image=sess.run(a)     print (image)     print("reslut:")     result=sess.run(pooling)     print (result) 這裡步長為1,視窗大小2×2,輸出結果: image: [[[[ 1.  2.]    [ 3.  4.]    [ 5.  6.]    [ 7.  8.]]     [[ 8.  7.]    [ 6.  5.]    [ 4.  3.]    [ 2.  1.]]     [[ 4.  3.]    [ 2.  1.]    [ 8.  7.]    [ 6.  5.]]     [[ 1.  2.]    [ 3.  4.]    [ 5.  6.]    [ 7.  8.]]]] reslut: [[[[ 8.  7.]    [ 6.  6.]    [ 7.  8.]]     [[ 8.  7.]    [ 8.  7.]    [ 8.  7.]]     [[ 4.  4.]    [ 8.  7.]    [ 8.  8.]]]] 池化後的圖就是:

證明了程式的結果是正確的。

我們還可以改變步長

pooling=tf.nn.max_pool(a,[1,2,2,1],[1,2,2,1],padding='VALID') 最後的result就變成: reslut: [[[[ 8.  7.]    [ 7.  8.]]     [[ 4.  4.]    [ 8.  8.]]]]

---------------------  作者:xf__mao  來源:CSDN  原文:https://blog.csdn.net/mao_xiao_feng/article/details/53453926  版權宣告:本文為博主原創文章,轉載請附上博文連結!