Tensorflow的應用(四)
阿新 • • 發佈:2019-02-04
這一節主要介紹Tensorflow的視覺化工具Tensorboard,主要還是通過程式碼進行解釋。
1、繪製神經網路訓練的過程圖graph,繪製每次迭代後的預測準確率、損失率,及每次迭代的權重的均值、標準差、最大最小值、直方圖,偏移量的均值、標準差、最大最小值、直方圖。以下是程式碼,依然是前面識別手寫體的資料,程式碼有註釋,就不一一再重複解釋了。
執行結果如下:import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #載入資料集 mnist = input_data.read_data_sets("MNIST_data",one_hot=True) #每個批次的大小 batch_size = 100 #計算一共有多少個批次 n_batch = mnist.train.num_examples // batch_size #引數概要,tf.summary.scalar的作用主要是儲存變數,並賦予變數名,tf.name_scope主要是給表示式命名 def variable_summaries(var): with tf.name_scope('summaries'): mean = tf.reduce_mean(var) tf.summary.scalar('mean', mean)#平均值 with tf.name_scope('stddev'): stddev = tf.sqrt(tf.reduce_mean(tf.square(var - mean))) tf.summary.scalar('stddev', stddev)#標準差 tf.summary.scalar('max', tf.reduce_max(var))#最大值 tf.summary.scalar('min', tf.reduce_min(var))#最小值 tf.summary.histogram('histogram', var)#直方圖 #名稱空間 with tf.name_scope('input'): #定義兩個placeholder x = tf.placeholder(tf.float32,[None,784],name='x-input') y = tf.placeholder(tf.float32,[None,10],name='y-input') with tf.name_scope('layer'): #建立一個簡單的神經網路 with tf.name_scope('wights'): W = tf.Variable(tf.zeros([784,10]),name='W') variable_summaries(W)#將w權重傳入variable_summaries這個過程,求權重的最大值、最小值、平均值、標準差、畫出直方圖 with tf.name_scope('biases'): b = tf.Variable(tf.zeros([10]),name='b') variable_summaries(b)#將b傳入variable_summaries這個過程,求偏移量的最大值、最小值、平均值、標準差、畫出直方圖 with tf.name_scope('wx_plus_b'): wx_plus_b = tf.matmul(x,W) + b with tf.name_scope('softmax'): prediction = tf.nn.softmax(wx_plus_b) #二次代價函式 # loss = tf.reduce_mean(tf.square(y-prediction)) with tf.name_scope('loss'): loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y,logits=prediction)) tf.summary.scalar('loss',loss) with tf.name_scope('train'): #使用梯度下降法 train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss) #初始化變數 init = tf.global_variables_initializer() with tf.name_scope('accuracy'): with tf.name_scope('correct_prediction'): #結果存放在一個布林型列表中 correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))#argmax返回一維張量中最大的值所在的位置 with tf.name_scope('accuracy'): #求準確率 accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32)) tf.summary.scalar('accuracy',accuracy) #合併所有的summary merged = tf.summary.merge_all() with tf.Session() as sess: sess.run(init) writer = tf.summary.FileWriter('F:/tensorflow/logs/',sess.graph)#畫出會話執行過程圖,並將圖儲存到F:/tensorflow/logs/ for epoch in range(51): for batch in range(n_batch): batch_xs,batch_ys = mnist.train.next_batch(batch_size) summary,_ = sess.run([merged,train_step],feed_dict={x:batch_xs,y:batch_ys})#執行所有的summary writer.add_summary(summary,epoch)#每迭代一次就會執行一次summary acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels}) print("Iter " + str(epoch) + ",Testing Accuracy " + str(acc))
從圖中應該可以比較清晰地看出,左上角是準確率,震盪比較厲害,可以通過調節學習率和迭代次數解決,因為本次只是為了展示tensorboard的使用,所以沒進行調參。右上角是每次迭代偏移量最大值的變化,左下角是偏移量均值的變化,右下角是偏移量最小值的變化,其他依次類推,就不一一截圖了。
這幅圖是演算法訓練的過程圖,點選裡面的每個節點都可以展開,左邊還有相應符號的說明。
這幅圖是權重和偏移量的分佈圖
這幅圖是偏移量和權重的直方圖
2、這部分主要對一張10000*10000的圖進行分類,每個畫素就是一個圖,這些圖都是一些手寫數字,0-9的數字,需要進行分類。需要訓練和預測的圖片樣本如下圖所示:
這是10000*10000d 圖片放大以後擷取的部分圖片,現在 的任務就是把每個數字進行分割,得到一張張圖,應該是有10000*10000張圖片,並進行分類。
以下是實現的程式,關於這部分程式碼有另一篇部落格介紹得更加詳細一些,這篇:http://blog.csdn.net/aliceyangxi1987/article/details/71079387#reply
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data from tensorflow.contrib.tensorboard.plugins import projector #載入資料集 mnist = input_data.read_data_sets("MNIST_data/",one_hot=True) #執行次數 max_steps = 1001 #圖片數量 image_num = 3000 #檔案路徑 DIR = "F:/tensorflow/" #定義會話 sess = tf.Session() #載入圖片,前3000張作為測試集 embedding = tf.Variable(tf.stack(mnist.test.images[:image_num]), trainable=False, name='embedding') #引數概要 def variable_summaries(var): with tf.name_scope('summaries'): mean = tf.reduce_mean(var) tf.summary.scalar('mean', mean)#平均值 with tf.name_scope('stddev'): stddev = tf.sqrt(tf.reduce_mean(tf.square(var - mean))) tf.summary.scalar('stddev', stddev)#標準差 tf.summary.scalar('max', tf.reduce_max(var))#最大值 tf.summary.scalar('min', tf.reduce_min(var))#最小值 tf.summary.histogram('histogram', var)#直方圖 #名稱空間 with tf.name_scope('input'): #這裡的none表示第一個維度可以是任意的長度 x = tf.placeholder(tf.float32,[None,784],name='x-input') #正確的標籤 y = tf.placeholder(tf.float32,[None,10],name='y-input') #顯示圖片 with tf.name_scope('input_reshape'): image_shaped_input = tf.reshape(x, [-1, 28, 28, 1])#-1表示任意維度,圖片大小為28*28=784 tf.summary.image('input', image_shaped_input, 10) with tf.name_scope('layer'): #建立一個簡單神經網路 with tf.name_scope('weights'): W = tf.Variable(tf.zeros([784,10]),name='W') variable_summaries(W) with tf.name_scope('biases'): b = tf.Variable(tf.zeros([10]),name='b') variable_summaries(b) with tf.name_scope('wx_plus_b'): wx_plus_b = tf.matmul(x,W) + b with tf.name_scope('softmax'): prediction = tf.nn.softmax(wx_plus_b) with tf.name_scope('loss'): #交叉熵代價函式 loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y,logits=prediction)) tf.summary.scalar('loss',loss) with tf.name_scope('train'): #使用梯度下降法 train_step = tf.train.GradientDescentOptimizer(0.5).minimize(loss) #初始化變數 sess.run(tf.global_variables_initializer()) with tf.name_scope('accuracy'): with tf.name_scope('correct_prediction'): #結果存放在一個布林型列表中 correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))#argmax返回一維張量中最大的值所在的位置 with tf.name_scope('accuracy'): #求準確率 accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))#把correct_prediction變為float32型別 tf.summary.scalar('accuracy',accuracy) #產生metadata檔案,這是固定的形式 if tf.gfile.Exists(DIR + 'projector/projector/metadata.tsv'): tf.gfile.DeleteRecursively(DIR + 'projector/projector/metadata.tsv') with open(DIR + 'projector/projector/metadata.tsv', 'w') as f: labels = sess.run(tf.argmax(mnist.test.labels[:],1)) for i in range(image_num): f.write(str(labels[i]) + '\n') #合併所有的summary merged = tf.summary.merge_all() projector_writer = tf.summary.FileWriter(DIR + 'projector/projector',sess.graph) saver = tf.train.Saver() config = projector.ProjectorConfig() embed = config.embeddings.add() embed.tensor_name = embedding.name embed.metadata_path = DIR + 'projector/projector/metadata.tsv' embed.sprite.image_path = DIR + 'projector/data/mnist_10k_sprite.png' embed.sprite.single_image_dim.extend([28,28]) projector.visualize_embeddings(projector_writer,config) for i in range(max_steps): #每個批次100個樣本 batch_xs,batch_ys = mnist.train.next_batch(100) run_options = tf.RunOptions(trace_level=tf.RunOptions.FULL_TRACE) run_metadata = tf.RunMetadata() summary,_ = sess.run([merged,train_step],feed_dict={x:batch_xs,y:batch_ys},options=run_options,run_metadata=run_metadata) projector_writer.add_run_metadata(run_metadata, 'step%03d' % i) projector_writer.add_summary(summary, i) if i%100 == 0: acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels}) print ("Iter " + str(i) + ", Testing Accuracy= " + str(acc)) saver.save(sess, DIR + 'projector/projector/a_model.ckpt', g