1. 程式人生 > >Tensorflow的應用(四)

Tensorflow的應用(四)

         這一節主要介紹Tensorflow的視覺化工具Tensorboard,主要還是通過程式碼進行解釋。

1、繪製神經網路訓練的過程圖graph,繪製每次迭代後的預測準確率、損失率,及每次迭代的權重的均值、標準差、最大最小值、直方圖,偏移量的均值、標準差、最大最小值、直方圖。以下是程式碼,依然是前面識別手寫體的資料,程式碼有註釋,就不一一再重複解釋了。

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
#載入資料集
mnist = input_data.read_data_sets("MNIST_data",one_hot=True)

#每個批次的大小
batch_size = 100
#計算一共有多少個批次
n_batch = mnist.train.num_examples // batch_size

#引數概要,tf.summary.scalar的作用主要是儲存變數,並賦予變數名,tf.name_scope主要是給表示式命名
def variable_summaries(var):
    with tf.name_scope('summaries'):
        mean = tf.reduce_mean(var)
        tf.summary.scalar('mean', mean)#平均值
        with tf.name_scope('stddev'):
            stddev = tf.sqrt(tf.reduce_mean(tf.square(var - mean)))
        tf.summary.scalar('stddev', stddev)#標準差
        tf.summary.scalar('max', tf.reduce_max(var))#最大值
        tf.summary.scalar('min', tf.reduce_min(var))#最小值
        tf.summary.histogram('histogram', var)#直方圖

#名稱空間
with tf.name_scope('input'):
    #定義兩個placeholder
    x = tf.placeholder(tf.float32,[None,784],name='x-input')
    y = tf.placeholder(tf.float32,[None,10],name='y-input')
    
with tf.name_scope('layer'):
    #建立一個簡單的神經網路
    with tf.name_scope('wights'):
        W = tf.Variable(tf.zeros([784,10]),name='W')
        variable_summaries(W)#將w權重傳入variable_summaries這個過程,求權重的最大值、最小值、平均值、標準差、畫出直方圖
    with tf.name_scope('biases'):    
        b = tf.Variable(tf.zeros([10]),name='b')
        variable_summaries(b)#將b傳入variable_summaries這個過程,求偏移量的最大值、最小值、平均值、標準差、畫出直方圖
    with tf.name_scope('wx_plus_b'):
        wx_plus_b = tf.matmul(x,W) + b
    with tf.name_scope('softmax'):
        prediction = tf.nn.softmax(wx_plus_b)

#二次代價函式
# loss = tf.reduce_mean(tf.square(y-prediction))
with tf.name_scope('loss'):
    loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y,logits=prediction))
    tf.summary.scalar('loss',loss)
with tf.name_scope('train'):
    #使用梯度下降法
    train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)

#初始化變數
init = tf.global_variables_initializer()

with tf.name_scope('accuracy'):
    with tf.name_scope('correct_prediction'):
        #結果存放在一個布林型列表中
        correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))#argmax返回一維張量中最大的值所在的位置
    with tf.name_scope('accuracy'):
        #求準確率
        accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
        tf.summary.scalar('accuracy',accuracy)
        
#合併所有的summary
merged = tf.summary.merge_all()

with tf.Session() as sess:
    sess.run(init)
    writer = tf.summary.FileWriter('F:/tensorflow/logs/',sess.graph)#畫出會話執行過程圖,並將圖儲存到F:/tensorflow/logs/
    for epoch in range(51):
        for batch in range(n_batch):
            batch_xs,batch_ys =  mnist.train.next_batch(batch_size)
            summary,_ = sess.run([merged,train_step],feed_dict={x:batch_xs,y:batch_ys})#執行所有的summary
            
        writer.add_summary(summary,epoch)#每迭代一次就會執行一次summary
        acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})
        print("Iter " + str(epoch) + ",Testing Accuracy " + str(acc))
執行結果如下:



       從圖中應該可以比較清晰地看出,左上角是準確率,震盪比較厲害,可以通過調節學習率和迭代次數解決,因為本次只是為了展示tensorboard的使用,所以沒進行調參。右上角是每次迭代偏移量最大值的變化,左下角是偏移量均值的變化,右下角是偏移量最小值的變化,其他依次類推,就不一一截圖了。


          這幅圖是演算法訓練的過程圖,點選裡面的每個節點都可以展開,左邊還有相應符號的說明。


          這幅圖是權重和偏移量的分佈圖

這幅圖是偏移量和權重的直方圖


2、這部分主要對一張10000*10000的圖進行分類,每個畫素就是一個圖,這些圖都是一些手寫數字,0-9的數字,需要進行分類。需要訓練和預測的圖片樣本如下圖所示:


 這是10000*10000d 圖片放大以後擷取的部分圖片,現在 的任務就是把每個數字進行分割,得到一張張圖,應該是有10000*10000張圖片,並進行分類。

以下是實現的程式,關於這部分程式碼有另一篇部落格介紹得更加詳細一些,這篇:http://blog.csdn.net/aliceyangxi1987/article/details/71079387#reply

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
from tensorflow.contrib.tensorboard.plugins import projector
#載入資料集
mnist = input_data.read_data_sets("MNIST_data/",one_hot=True)
#執行次數
max_steps = 1001
#圖片數量
image_num = 3000
#檔案路徑
DIR = "F:/tensorflow/"

#定義會話
sess = tf.Session()

#載入圖片,前3000張作為測試集
embedding = tf.Variable(tf.stack(mnist.test.images[:image_num]), trainable=False, name='embedding')

#引數概要
def variable_summaries(var):
    with tf.name_scope('summaries'):
        mean = tf.reduce_mean(var)
        tf.summary.scalar('mean', mean)#平均值
        with tf.name_scope('stddev'):
            stddev = tf.sqrt(tf.reduce_mean(tf.square(var - mean)))
        tf.summary.scalar('stddev', stddev)#標準差
        tf.summary.scalar('max', tf.reduce_max(var))#最大值
        tf.summary.scalar('min', tf.reduce_min(var))#最小值
        tf.summary.histogram('histogram', var)#直方圖

#名稱空間
with tf.name_scope('input'):
    #這裡的none表示第一個維度可以是任意的長度
    x = tf.placeholder(tf.float32,[None,784],name='x-input')
    #正確的標籤
    y = tf.placeholder(tf.float32,[None,10],name='y-input')

#顯示圖片
with tf.name_scope('input_reshape'):
    image_shaped_input = tf.reshape(x, [-1, 28, 28, 1])#-1表示任意維度,圖片大小為28*28=784
    tf.summary.image('input', image_shaped_input, 10)

with tf.name_scope('layer'):
    #建立一個簡單神經網路
    with tf.name_scope('weights'):
        W = tf.Variable(tf.zeros([784,10]),name='W')
        variable_summaries(W)
    with tf.name_scope('biases'):
        b = tf.Variable(tf.zeros([10]),name='b')
        variable_summaries(b)
    with tf.name_scope('wx_plus_b'):
        wx_plus_b = tf.matmul(x,W) + b
    with tf.name_scope('softmax'):    
        prediction = tf.nn.softmax(wx_plus_b)

with tf.name_scope('loss'):
    #交叉熵代價函式
    loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y,logits=prediction))
    tf.summary.scalar('loss',loss)
with tf.name_scope('train'):
    #使用梯度下降法
    train_step = tf.train.GradientDescentOptimizer(0.5).minimize(loss)

#初始化變數
sess.run(tf.global_variables_initializer())

with tf.name_scope('accuracy'):
    with tf.name_scope('correct_prediction'):
        #結果存放在一個布林型列表中
        correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))#argmax返回一維張量中最大的值所在的位置
    with tf.name_scope('accuracy'):
        #求準確率
        accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))#把correct_prediction變為float32型別
        tf.summary.scalar('accuracy',accuracy)

#產生metadata檔案,這是固定的形式
if tf.gfile.Exists(DIR + 'projector/projector/metadata.tsv'):
    tf.gfile.DeleteRecursively(DIR + 'projector/projector/metadata.tsv')
with open(DIR + 'projector/projector/metadata.tsv', 'w') as f:
    labels = sess.run(tf.argmax(mnist.test.labels[:],1))
    for i in range(image_num):   
        f.write(str(labels[i]) + '\n')        
        
#合併所有的summary
merged = tf.summary.merge_all()   


projector_writer = tf.summary.FileWriter(DIR + 'projector/projector',sess.graph)
saver = tf.train.Saver()
config = projector.ProjectorConfig()
embed = config.embeddings.add()
embed.tensor_name = embedding.name
embed.metadata_path = DIR + 'projector/projector/metadata.tsv'
embed.sprite.image_path = DIR + 'projector/data/mnist_10k_sprite.png'
embed.sprite.single_image_dim.extend([28,28])
projector.visualize_embeddings(projector_writer,config)

for i in range(max_steps):
    #每個批次100個樣本
    batch_xs,batch_ys = mnist.train.next_batch(100)
    run_options = tf.RunOptions(trace_level=tf.RunOptions.FULL_TRACE)
    run_metadata = tf.RunMetadata()
    summary,_ = sess.run([merged,train_step],feed_dict={x:batch_xs,y:batch_ys},options=run_options,run_metadata=run_metadata)
    projector_writer.add_run_metadata(run_metadata, 'step%03d' % i)
    projector_writer.add_summary(summary, i)
    
    if i%100 == 0:
        acc = sess.run(accuracy,feed_dict={x:mnist.test.images,y:mnist.test.labels})
        print ("Iter " + str(i) + ", Testing Accuracy= " + str(acc))

saver.save(sess, DIR + 'projector/projector/a_model.ckpt', g