tf.nn.conv2d
阿新 • • 發佈:2017-09-21
Language sha and log string python feature style p s
tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)
-
input:
指需要做卷積的輸入圖像,它要求是一個Tensor,具有[batch, in_height, in_width, in_channels]這樣的shape,具體含義是[訓練時一個batch的圖片數量, 圖片高度, 圖片寬度, 圖像通道數],註意這是一個4維的Tensor,要求類型為float32和float64其中之一 -
filter:
相當於CNN中的卷積核,它要求是一個Tensor,具有[filter_height, filter_width, in_channels, out_channels]這樣的shape,具體含義是[卷積核的高度,卷積核的寬度,圖像通道數,卷積核個數],要求類型與參數input相同,有一個地方需要註意,第三維in_channels,就是參數input的第四維 -
strides:卷積時在圖像每一維的步長,這是一個一維的向量,長度4
-
padding:
string類型的量,只能是”SAME”,”VALID”其中之一,這個值決定了不同的卷積方式(後面會介紹) -
use_cudnn_on_gpu:
bool類型,是否使用cudnn加速,默認為true
結果返回一個Tensor,這個輸出,就是我們常說的feature map
name是啥?
strides[1,1,1,1]和strides[1,2,2,1]啥關系?
input = tf.Variable(tf.random_normal([1,5,5,5]))
filter = tf.Variable(tf.random_normal([3,3,5,7]))
op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding=‘SAME‘)
此時輸出7張5×5的feature map
input = tf.Variable(tf.random_normal([1,5,5,5]))
filter = tf.Variable(tf.random_normal([3,3,5,7]))
op = tf.nn.conv2d(input, filter, strides=[1, 2, 2, 1], padding=‘SAME‘)
此時,輸出7張3×3的feature map
http://blog.csdn.net/mao_xiao_feng/article/details/78004522
tf.nn.conv2d