解決tensorflow 釋放圖,刪除變量問(wèn)題
問(wèn)題,在一個(gè)程序內(nèi)構(gòu)建好了一個(gè)圖,運(yùn)行完之后想重新使用這個(gè)圖進(jìn)行計(jì)算,或者想同時(shí)在train完的時(shí)候做test,就會(huì)提示***變量已存在。
解決辦法:
待一個(gè)圖運(yùn)行完之后加上tf.reset_default_graph來(lái)重置默認(rèn)的圖。
補(bǔ)充知識(shí):tensorflow 張量插入或者刪除的辦法
我就廢話不多說(shuō)了,大家還是直接看代碼吧~
part1 = new_enc_in[:, 0:3 ] part2 = new_enc_in[:, 3:] ###part_new 要插入的張量 new_enc_in = tf.concat([part1, part_new, part2], 1) ##得到的張量里part_new為新插入列 ##如果要?jiǎng)h除,則修改part2的范圍 part1 = new_enc_in[:, 0:3] part2 = new_enc_in[:, 4:] new_enc_in = tf.concat([part1, part2], 1) ###原張量的第四列被刪除
以上這篇解決tensorflow 釋放圖,刪除變量問(wèn)題就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
解讀torch.cuda.amp自動(dòng)混合精度訓(xùn)練之節(jié)省顯存并加快推理速度
這篇文章主要介紹了torch.cuda.amp自動(dòng)混合精度訓(xùn)練之節(jié)省顯存并加快推理速度問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2023-08-08淺談keras2 predict和fit_generator的坑
這篇文章主要介紹了淺談keras2 predict和fit_generator的坑,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-06-06python使用標(biāo)準(zhǔn)庫(kù)根據(jù)進(jìn)程名如何獲取進(jìn)程的pid詳解
Python有一套很有用的標(biāo)準(zhǔn)庫(kù)(standard library)。標(biāo)準(zhǔn)庫(kù)會(huì)隨著Python解釋器,一起安裝在你的電腦中的,所以下面這篇文章主要給大家介紹了關(guān)于python使用標(biāo)準(zhǔn)庫(kù)根據(jù)進(jìn)程名如何獲取進(jìn)程pid的相關(guān)資料,需要的朋友可以參考下。2017-10-10python事件驅(qū)動(dòng)event實(shí)現(xiàn)詳解
這篇文章主要為大家詳細(xì)介紹了python事件驅(qū)動(dòng)event實(shí)現(xiàn),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-11-11使用python爬蟲(chóng)實(shí)現(xiàn)子域名探測(cè)問(wèn)題
子域名枚舉是為一個(gè)或多個(gè)域查找子域的過(guò)程,它是信息收集階段的重要組成部分,這篇文章主要介紹了使用python實(shí)現(xiàn)子域名探測(cè),需要的朋友可以參考下2022-07-07