tf.nn.rnn_cell.MultiRNNCell的應用示例及錯誤解決
阿新 • • 發佈:2019-02-16
TensorFlow中,tf.nn.rnn_cell.BasicRNNCell和tf.nn.rnn_cell.Basic LSTM是迴圈神經網路的兩個重要基礎類;tf.nn.dynamic_rnn是用來一次執行多個時間步,tf.nn.rnn_cell.MultiRNNCell用來生成多層RNN網路。詳情請見https://blog.csdn.net/starzhou/article/details/77848156。下面是一個用tf.nn.rnn_cell.MultiRNNCell實現的兩層的RNN神經網路,用tf.nn.dynamic_rnn來一次執行多個時間步。
import tensorflow as tf; import numpy as np; X = tf.random_normal(shape=[3,5,6], dtype=tf.float32)#3為batch的size,5為時間步長,6為每個時間步的尺寸 X = tf.reshape(X, [-1, 5, 6]) rnn_layers =[tf.nn.rnn_cell.BasicRNNCell(size,reuse=True) for size in [128, 256]]#分別為每層RNN的神經元個數 multi_rnn_cell = tf.nn.rnn_cell.MultiRNNCell(rnn_layers) state = multi_rnn_cell.zero_state(3, tf.float32) output, state = tf.nn.dynamic_rnn(multi_rnn_cell, X, initial_state=state, time_major=False) with tf.Session() as sess: sess.run(tf.global_variables_initializer()) print(output.get_shape()) print(sess.run(state))
上述的程式碼第一次執行可以正常執行,第二次的時候會出錯,好像需要讓什麼設為reuse,不太明白,暫時就分享這些。用的是tf 1.8的版本。