怎么在Keras中使用tensorboard顯示訓(xùn)練過程-創(chuàng)新互聯(lián)

這篇文章給大家介紹怎么在Keras中使用tensorboard顯示訓(xùn)練過程,內(nèi)容非常詳細(xì),感興趣的小伙伴們可以參考借鑒,希望對大家能有所幫助。

創(chuàng)新互聯(lián)建站-專業(yè)網(wǎng)站定制、快速模板網(wǎng)站建設(shè)、高性價比阜城網(wǎng)站開發(fā)、企業(yè)建站全套包干低至880元,成熟完善的模板庫,直接使用。一站式阜城網(wǎng)站制作公司更省心,省錢,快速模板網(wǎng)站建設(shè)找我們,業(yè)務(wù)覆蓋阜城地區(qū)。費(fèi)用合理售后完善,十多年實(shí)體公司更值得信賴。

方法一(標(biāo)準(zhǔn)調(diào)用方法):

采用keras特有的fit()進(jìn)行訓(xùn)練,只要在fit的時候指定callbacks函數(shù)即可,代碼如下

from keras.callbacks import TensorBoard 
from keras.models import Sequential 
…… 
model = Sequential() 
…… 
tbCallBack = keras.callbacks.TensorBoard(log_dir='./Graph', 
histogram_freq=1, 
write_graph=True, 
write_images=True)

model_history = model.fit(X_train_train, 
y_train_train, 
batch_size=batch_size, 
epochs=epochs, 
verbose=1, 
validation_data=(X_train_val, y_train_val), 
callbacks = [EarlyStopping(patience=patience,mode='min',verbose=1), 
history, 
tbCallBack])

雖然這種方法看上去很美,但它只適用于標(biāo)準(zhǔn)訓(xùn)練方法,如果你想用自己的訓(xùn)練方法,就需要調(diào)用train_on_batch,而不能直接使用fit(),這時就要采用下面這種方法:

方法二(特殊調(diào)用方法):

這種方法可用于調(diào)用train_on_batch的情況。

%預(yù)先寫好writer,定義好model 
writer = tf.summary.FileWriter(…) 
model = … 
%訓(xùn)練時 
loss = model.train_on_batch(…) 
summary = tf.Summary(value=[ 
tf.Summary.Value(tag=”d_loss”, simple_value=d_loss), 
tf.Summary.Value(tag=”g_loss”, simple_value=g_loss), 
]) 
writer.add_summary(summary)

雖然很簡單,但這種方法只能顯示scalar類型,不能顯示image,histgram等,非常不實(shí)用。真正實(shí)用的是下面的終結(jié)方法:

方法三(最實(shí)用的方法)

最實(shí)用的還是用tensorflow原生的調(diào)用方法,雖然相對方法二麻煩一點(diǎn),但考慮到此方法與tensorflow一樣,不需要去記那些額外的花拳繡腿,因此反而是最簡單的,也是最有效的。

代碼如下:

import tensorflow as tf 
import datetime 
%在訓(xùn)練開始之前,預(yù)先定義好可視化的東西,用的是原生的tensorflow方法,這里我們以一個GAN模型為例,讓它顯示整張模型圖,兩個標(biāo)量損失函數(shù),以及5個生成圖像。方法是預(yù)先用placeholder聲明所要顯示的那些東西,然后在訓(xùn)練過程中將訓(xùn)練結(jié)果來填充它們。你可以自行加入histgram,都和tensorflow一樣 
#start tensorboard 
sess=tf.Session() 
logdir = “tensorboard/” + datetime.datetime.now().strftime(“%Y%m%d-%H%M%S”) + “/” 
writer = tf.summary.FileWriter(logdir, sess.graph) 
D_LOSS = tf.placeholder(tf.float32, []) 
G_LOSS = tf.placeholder(tf.float32, []) 
IMAGES = tf.placeholder(tf.float32,shape=[None,28,28,1]) 
tf.summary.scalar(“D_LOSS”, D_LOSS) 
tf.summary.scalar(“G_LOSS”, G_LOSS) 
tf.summary.image(“IMAGES”, IMAGES, 5) 
merged=tf.summary.merge_all() 
#end tensorboard

訓(xùn)練迭代過程中,是這樣的

for epoch in range(100): 
% 用keras的train_on_batch方法進(jìn)行訓(xùn)練 
d_loss = d.train_on_batch(。。。。。。) 
g_loss = d_on_g.train_on_batch(。。。。。。) 
generated_images = g.predict(。。。。。。) 
if index%10==0: #tensorboard 
% 將訓(xùn)練結(jié)果填充可視化數(shù)據(jù) 
summary=sess.run(merged,feed_dict={D_LOSS:d_loss, G_LOSS:g_loss, IMAGES:generated_images}) 
writer.add_summary(summary,index)

關(guān)于怎么在Keras中使用tensorboard顯示訓(xùn)練過程就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

網(wǎng)站名稱:怎么在Keras中使用tensorboard顯示訓(xùn)練過程-創(chuàng)新互聯(lián)
本文URL:http://muchs.cn/article26/coejjg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供外貿(mào)建站、定制開發(fā)、網(wǎng)頁設(shè)計公司、App開發(fā)、域名注冊自適應(yīng)網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都定制網(wǎng)站建設(shè)