tensorflow保持每次訓(xùn)練結(jié)果一致的簡單實現(xiàn)
在用tensorflow構(gòu)建神經(jīng)網(wǎng)絡(luò)的時候,有很多隨機的因素,比如參數(shù)的隨機初始化: 正態(tài)分布隨機變量tf.random_normal([m,n]),均勻分布的隨機變量tf.random_uniform([m,n]),還有在從tfrecord讀取數(shù)據(jù)時,也會隨機打亂數(shù)據(jù)。
那么由于這些隨機的操作,即使是在輸入數(shù)據(jù)完全一樣的情況下,每次訓(xùn)練的結(jié)果也不一樣,那么如果想要使得每次訓(xùn)練的結(jié)果一致,應(yīng)該怎么做呢?
可以在最開始時,固定隨機數(shù)種子,如下
tf.set_random_seed(1)
以上這篇tensorflow保持每次訓(xùn)練結(jié)果一致的簡單實現(xiàn)就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
- Tensorflow訓(xùn)練MNIST手寫數(shù)字識別模型
- tensorflow實現(xiàn)訓(xùn)練變量checkpoint的保存與讀取
- Tensorflow訓(xùn)練模型越來越慢的2種解決方案
- TensorFlow實現(xiàn)保存訓(xùn)練模型為pd文件并恢復(fù)
- 解決TensorFlow訓(xùn)練內(nèi)存不斷增長,進程被殺死問題
- tensorflow獲取預(yù)訓(xùn)練模型某層參數(shù)并賦值到當(dāng)前網(wǎng)絡(luò)指定層方式
- tensorflow模型繼續(xù)訓(xùn)練 fineturn實例
- tensorflow如何繼續(xù)訓(xùn)練之前保存的模型實例
- Tensorflow實現(xiàn)在訓(xùn)練好的模型上進行測試
相關(guān)文章
Pytorch的torch.utils.data中Dataset以及DataLoader示例詳解
torch.utils.data?是?PyTorch?提供的一個模塊,用于處理和加載數(shù)據(jù),該模塊提供了一系列工具類和函數(shù),用于創(chuàng)建、操作和批量加載數(shù)據(jù)集,這篇文章主要介紹了Pytorch的torch.utils.data中Dataset以及DataLoader等詳解,需要的朋友可以參考下2023-08-08python每5分鐘從kafka中提取數(shù)據(jù)的例子
今天小編就為大家分享一篇python每5分鐘從kafka中提取數(shù)據(jù)的例子,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-12-12Python RuntimeError: thread.__init__() not called解決方法
這篇文章主要介紹了Python RuntimeError: thread.__init__() not called解決方法,需要的朋友可以參考下2015-04-04解決python訪問報錯:jinja2.exceptions.TemplateNotFound:index.html
這篇文章主要介紹了解決python訪問報錯:jinja2.exceptions.TemplateNotFound:index.html,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2023-12-12Django celery實現(xiàn)異步任務(wù)操作,并在后臺運行(守護進程)
這篇文章主要介紹了Django celery實現(xiàn)異步任務(wù)操作,并在后臺運行(守護進程),具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2021-03-03對python產(chǎn)生隨機的二維數(shù)組實例詳解
今天小編就為大家分享一篇對python產(chǎn)生隨機的二維數(shù)組實例詳解,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-12-12