Keras使用tensorboard顯示訓(xùn)練過程的實(shí)例
眾所周知tensorflow造勢雖大卻很難用,因此推薦使用Keras,它缺省是基于tensorflow的,但通過修改keras.json也可以用于theano。但是為了能用tensorflow提供的tensorboard,因此建議仍基于tensorflow。
那么問題來了,由于Keras隱藏了tensorflow那令人詬病、可笑至極的graph構(gòu)建方法,那么如何使用tensorboard呢?一般網(wǎng)站上會(huì)告訴你是這樣的:
方法一(標(biāo)準(zhǔn)調(diào)用方法):
采用keras特有的fit()進(jìn)行訓(xùn)練,只要在fit的時(shí)候指定callbacks函數(shù)即可,代碼如下
from keras.callbacks import TensorBoard from keras.models import Sequential …… model = Sequential() …… tbCallBack = keras.callbacks.TensorBoard(log_dir='./Graph', histogram_freq=1, write_graph=True, write_images=True) model_history = model.fit(X_train_train, y_train_train, batch_size=batch_size, epochs=epochs, verbose=1, validation_data=(X_train_val, y_train_val), callbacks = [EarlyStopping(patience=patience,mode='min',verbose=1), history, tbCallBack])
雖然這種方法看上去很美,但它只適用于標(biāo)準(zhǔn)訓(xùn)練方法,如果你想用自己的訓(xùn)練方法,就需要調(diào)用train_on_batch,而不能直接使用fit(),這時(shí)就要采用下面這種方法:
方法二(特殊調(diào)用方法):
這種方法可用于調(diào)用train_on_batch的情況。
%預(yù)先寫好writer,定義好model writer = tf.summary.FileWriter(…) model = … %訓(xùn)練時(shí) loss = model.train_on_batch(…) summary = tf.Summary(value=[ tf.Summary.Value(tag=”d_loss”, simple_value=d_loss), tf.Summary.Value(tag=”g_loss”, simple_value=g_loss), ]) writer.add_summary(summary)
雖然很簡單,但這種方法只能顯示scalar類型,不能顯示image,histgram等,非常不實(shí)用。真正實(shí)用的是下面的終結(jié)方法:
方法三(最實(shí)用的方法)
最實(shí)用的還是用tensorflow原生的調(diào)用方法,雖然相對方法二麻煩一點(diǎn),但考慮到此方法與tensorflow一樣,不需要去記那些額外的花拳繡腿,因此反而是最簡單的,也是最有效的。
代碼如下:
import tensorflow as tf import datetime %在訓(xùn)練開始之前,預(yù)先定義好可視化的東西,用的是原生的tensorflow方法,這里我們以一個(gè)GAN模型為例,讓它顯示整張模型圖,兩個(gè)標(biāo)量損失函數(shù),以及5個(gè)生成圖像。方法是預(yù)先用placeholder聲明所要顯示的那些東西,然后在訓(xùn)練過程中將訓(xùn)練結(jié)果來填充它們。你可以自行加入histgram,都和tensorflow一樣 #start tensorboard sess=tf.Session() logdir = “tensorboard/” + datetime.datetime.now().strftime(“%Y%m%d-%H%M%S”) + “/” writer = tf.summary.FileWriter(logdir, sess.graph) D_LOSS = tf.placeholder(tf.float32, []) G_LOSS = tf.placeholder(tf.float32, []) IMAGES = tf.placeholder(tf.float32,shape=[None,28,28,1]) tf.summary.scalar(“D_LOSS”, D_LOSS) tf.summary.scalar(“G_LOSS”, G_LOSS) tf.summary.image(“IMAGES”, IMAGES, 5) merged=tf.summary.merge_all() #end tensorboard
訓(xùn)練迭代過程中,是這樣的
for epoch in range(100): % 用keras的train_on_batch方法進(jìn)行訓(xùn)練 d_loss = d.train_on_batch(。。。。。。) g_loss = d_on_g.train_on_batch(。。。。。。) generated_images = g.predict(。。。。。。) if index%10==0: #tensorboard % 將訓(xùn)練結(jié)果填充可視化數(shù)據(jù) summary=sess.run(merged,feed_dict={D_LOSS:d_loss, G_LOSS:g_loss, IMAGES:generated_images}) writer.add_summary(summary,index)
以上這篇Keras使用tensorboard顯示訓(xùn)練過程的實(shí)例就是小編分享給大家的全部內(nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
Django項(xiàng)目創(chuàng)建及管理實(shí)現(xiàn)流程詳解
這篇文章主要介紹了Django項(xiàng)目創(chuàng)建及管理實(shí)現(xiàn)流程詳解,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-10-10python判斷列表字典字符串元組是否存在某個(gè)值或者空值(多種方法)
這篇文章主要介紹了python判斷列表字典字符串元組是否存在某個(gè)值或者空值,本文通過實(shí)例代碼給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友參考下吧2024-02-02Pandas 稀疏數(shù)據(jù)結(jié)構(gòu)的實(shí)現(xiàn)
如果數(shù)據(jù)中有很多NaN的值,存儲(chǔ)起來就會(huì)浪費(fèi)空間。為了解決這個(gè)問題,Pandas引入了一種叫做Sparse data的結(jié)構(gòu),來有效的存儲(chǔ)這些NaN的值,本文就來詳細(xì)的介紹了一下,感興趣的可以了解一下2021-07-07Python異步與定時(shí)任務(wù)提高程序并發(fā)性和定時(shí)執(zhí)行效率
Python異步與定時(shí)任務(wù)是Python編程中常用的兩種技術(shù),異步任務(wù)可用于高效處理I/O密集型任務(wù),提高程序并發(fā)性;定時(shí)任務(wù)可用于定時(shí)執(zhí)行計(jì)劃任務(wù),提高程序的執(zhí)行效率。這兩種技術(shù)的應(yīng)用有助于提升Python程序的性能和效率2023-05-05