1. 程式人生 > 程式設計 >Keras使用tensorboard顯示訓練過程的例項

Keras使用tensorboard顯示訓練過程的例項

眾所周知tensorflow造勢雖大卻很難用,因此推薦使用Keras,它預設是基於tensorflow的,但通過修改keras.json也可以用於theano。但是為了能用tensorflow提供的tensorboard,因此建議仍基於tensorflow。

那麼問題來了,由於Keras隱藏了tensorflow那令人詬病、可笑至極的graph構建方法,那麼如何使用tensorboard呢?一般網站上會告訴你是這樣的:

方法一(標準呼叫方法):

採用keras特有的fit()進行訓練,只要在fit的時候指定callbacks函式即可,程式碼如下

from keras.callbacks import TensorBoard 
from keras.models import Sequential 
…… 
model = Sequential() 
…… 
tbCallBack = keras.callbacks.TensorBoard(log_dir='./Graph',histogram_freq=1,write_graph=True,write_images=True)

model_history = model.fit(X_train_train,y_train_train,batch_size=batch_size,epochs=epochs,verbose=1,validation_data=(X_train_val,y_train_val),callbacks = [EarlyStopping(patience=patience,mode='min',verbose=1),history,tbCallBack]) 

雖然這種方法看上去很美,但它只適用於標準訓練方法,如果你想用自己的訓練方法,就需要呼叫train_on_batch,而不能直接使用fit(),這時就要採用下面這種方法:

方法二(特殊呼叫方法):

這種方法可用於呼叫train_on_batch的情況。

%預先寫好writer,定義好model 
writer = tf.summary.FileWriter(…) 
model = … 
%訓練時 
loss = model.train_on_batch(…) 
summary = tf.Summary(value=[ 
tf.Summary.Value(tag=”d_loss”,simple_value=d_loss),tf.Summary.Value(tag=”g_loss”,simple_value=g_loss),]) 
writer.add_summary(summary) 

雖然很簡單,但這種方法只能顯示scalar型別,不能顯示image,histgram等,非常不實用。真正實用的是下面的終結方法:

方法三(最實用的方法)

最實用的還是用tensorflow原生的呼叫方法,雖然相對方法二麻煩一點,但考慮到此方法與tensorflow一樣,不需要去記那些額外的花拳繡腿,因此反而是最簡單的,也是最有效的。

程式碼如下:

import tensorflow as tf 
import datetime 
%在訓練開始之前,預先定義好視覺化的東西,用的是原生的tensorflow方法,這裡我們以一個GAN模型為例,讓它顯示整張模型圖,兩個標量損失函式,以及5個生成影象。方法是預先用placeholder宣告所要顯示的那些東西,然後在訓練過程中將訓練結果來填充它們。你可以自行加入histgram,都和tensorflow一樣 
#start tensorboard 
sess=tf.Session() 
logdir = “tensorboard/” + datetime.datetime.now().strftime(“%Y%m%d-%H%M%S”) + “/” 
writer = tf.summary.FileWriter(logdir,sess.graph) 
D_LOSS = tf.placeholder(tf.float32,[]) 
G_LOSS = tf.placeholder(tf.float32,[]) 
IMAGES = tf.placeholder(tf.float32,shape=[None,28,1]) 
tf.summary.scalar(“D_LOSS”,D_LOSS) 
tf.summary.scalar(“G_LOSS”,G_LOSS) 
tf.summary.image(“IMAGES”,IMAGES,5) 
merged=tf.summary.merge_all() 
#end tensorboard 

訓練迭代過程中,是這樣的

for epoch in range(100): 
% 用keras的train_on_batch方法進行訓練 
d_loss = d.train_on_batch(。。。。。。) 
g_loss = d_on_g.train_on_batch(。。。。。。) 
generated_images = g.predict(。。。。。。) 
if index%10==0: #tensorboard 
% 將訓練結果填充視覺化資料 
summary=sess.run(merged,feed_dict={D_LOSS:d_loss,G_LOSS:g_loss,IMAGES:generated_images}) 
writer.add_summary(summary,index)

以上這篇Keras使用tensorboard顯示訓練過程的例項就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。