1. 程式人生 > >tf.nn.rnn_cell.MultiRNNCell的應用示例及錯誤解決

tf.nn.rnn_cell.MultiRNNCell的應用示例及錯誤解決

 TensorFlow中,tf.nn.rnn_cell.BasicRNNCell和tf.nn.rnn_cell.Basic LSTM是迴圈神經網路的兩個重要基礎類;tf.nn.dynamic_rnn是用來一次執行多個時間步,tf.nn.rnn_cell.MultiRNNCell用來生成多層RNN網路。詳情請見https://blog.csdn.net/starzhou/article/details/77848156。下面是一個用tf.nn.rnn_cell.MultiRNNCell實現的兩層的RNN神經網路,用tf.nn.dynamic_rnn來一次執行多個時間步。

import tensorflow as tf;
import numpy as np;

 
X = tf.random_normal(shape=[3,5,6], dtype=tf.float32)#3為batch的size,5為時間步長,6為每個時間步的尺寸
X = tf.reshape(X, [-1, 5, 6])
rnn_layers =[tf.nn.rnn_cell.BasicRNNCell(size,reuse=True) for size in [128, 256]]#分別為每層RNN的神經元個數
multi_rnn_cell = tf.nn.rnn_cell.MultiRNNCell(rnn_layers)
state = multi_rnn_cell.zero_state(3, tf.float32)
output, state = tf.nn.dynamic_rnn(multi_rnn_cell, X, initial_state=state, time_major=False)
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    print(output.get_shape()) 
    print(sess.run(state)) 

上述的程式碼第一次執行可以正常執行,第二次的時候會出錯,好像需要讓什麼設為reuse,不太明白,暫時就分享這些。用的是tf 1.8的版本。