Tensorflow分批量讀取數(shù)據(jù)教程
之前的博客里使用tf讀取數(shù)據(jù)都是每次fetch一條記錄,實(shí)際上大部分時(shí)候需要fetch到一個(gè)batch的小批量數(shù)據(jù),在tf中這一操作的明顯變化就是tensor的rank發(fā)生了變化,我目前使用的人臉數(shù)據(jù)集是灰度圖像,因此大小是92*112的,所以最開(kāi)始fetch拿到的圖像數(shù)據(jù)集經(jīng)過(guò)reshape之后就是一個(gè)rank為2的tensor,大小是92*112的(如果考慮通道,也可以reshape為rank為3的,即92*112*1)。如果加入batch,比如batch大小為5,那么拿到的tensor的rank就變成了3,大小為5*92*112。
下面規(guī)則化的寫(xiě)一下讀取數(shù)據(jù)的一般流程,按照官網(wǎng)的實(shí)例,一般把讀取數(shù)據(jù)拆分成兩個(gè)大部分,一個(gè)是函數(shù)專門(mén)負(fù)責(zé)讀取數(shù)據(jù)和解碼數(shù)據(jù),一個(gè)函數(shù)則負(fù)責(zé)生產(chǎn)batch。
import tensorflow as tf def read_data(fileNameQue): reader = tf.TFRecordReader() key, value = reader.read(fileNameQue) features = tf.parse_single_example(value, features={'label': tf.FixedLenFeature([], tf.int64), 'img': tf.FixedLenFeature([], tf.string),}) img = tf.decode_raw(features["img"], tf.uint8) img = tf.reshape(img, [92,112]) # 恢復(fù)圖像原始大小 label = tf.cast(features["label"], tf.int32) return img, label def batch_input(filename, batchSize): fileNameQue = tf.train.string_input_producer([filename], shuffle=True) img, label = read_data(fileNameQue) # fetch圖像和label min_after_dequeue = 1000 capacity = min_after_dequeue+3*batchSize # 預(yù)取圖像和label并隨機(jī)打亂,組成batch,此時(shí)tensor rank發(fā)生了變化,多了一個(gè)batch大小的維度 exampleBatch,labelBatch = tf.train.shuffle_batch([img, label],batch_size=batchSize, capacity=capacity, min_after_dequeue=min_after_dequeue) return exampleBatch,labelBatch if __name__ == "__main__": init = tf.initialize_all_variables() exampleBatch, labelBatch = batch_input("./data/faceTF.tfrecords", batchSize=10) with tf.Session() as sess: sess.run(init) coord = tf.train.Coordinator() threads = tf.train.start_queue_runners(coord=coord) for i in range(100): example, label = sess.run([exampleBatch, labelBatch]) print(example.shape) coord.request_stop() coord.join(threads)
讀取數(shù)據(jù)和解碼數(shù)據(jù)與之前基本相同,針對(duì)不同格式數(shù)據(jù)集使用不同閱讀器和解碼器即可,后面是產(chǎn)生batch,核心是tf.train.shuffle_batch這個(gè)函數(shù),它相當(dāng)于一個(gè)蓄水池的功能,第一個(gè)參數(shù)代表蓄水池的入水口,也就是逐個(gè)讀取到的記錄,batch_size自然就是batch的大小了,capacity是蓄水池的容量,表示能容納多少個(gè)樣本,min_after_dequeue是指出隊(duì)操作后還可以供隨機(jī)采樣出批量數(shù)據(jù)的樣本池大小,顯然,capacity要大于min_after_dequeue,官網(wǎng)推薦:min_after_dequeue + (num_threads + a small safety margin) * batch_size,還有一個(gè)參數(shù)就是num_threads,表示所用線程數(shù)目。
min_after_dequeue這個(gè)值越大,隨機(jī)采樣的效果越好,但是消耗的內(nèi)存也越大。
以上這篇Tensorflow分批量讀取數(shù)據(jù)教程就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
python中itertools模塊zip_longest函數(shù)詳解
itertools模塊包含創(chuàng)建高效迭代器的函數(shù),這些函數(shù)的返回值不是list,而是iterator(可迭代對(duì)象),可以用各種方式對(duì)數(shù)據(jù)執(zhí)行循環(huán)操作,今天我們來(lái)詳細(xì)探討下zip_longest函數(shù)2018-06-06Python編寫(xiě)帶選項(xiàng)的命令行程序方法
今天小編就為大家分享一篇Python編寫(xiě)帶選項(xiàng)的命令行程序方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-08-08對(duì)python中for、if、while的區(qū)別與比較方法
今天小編就為大家分享一篇對(duì)python中for 、if、 while的區(qū)別與比較方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-06-06Python基于Floyd算法求解最短路徑距離問(wèn)題實(shí)例詳解
這篇文章主要介紹了Python基于Floyd算法求解最短路徑距離問(wèn)題,結(jié)合完整實(shí)例形式詳細(xì)分析了Python使用Floyd算法求解最短路徑距離問(wèn)題的相關(guān)操作技巧與注意事項(xiàng),需要的朋友可以參考下2018-05-05jupyter notebook保存文件默認(rèn)路徑更改方法匯總(親測(cè)可以)
安裝Anaconda后,新建文件的默認(rèn)存儲(chǔ)路徑一般在C系統(tǒng)盤(pán),那么路徑是什么呢?如何更改jupyter notebook保存文件默認(rèn)路徑呢?今天小編就這一問(wèn)題通過(guò)兩種方法給大家講解,需要的朋友跟隨小編一起看看吧2021-06-06vscode 與pycharm 配置 autopep8自動(dòng)格式化代碼
autopep8是一個(gè)可以將Python代碼自動(dòng)排版為PEP8風(fēng)格第三方包,使用它可以輕松地排版出格式優(yōu)美整齊的代碼,這里就為大家分享一下具體的方法2023-09-09Python中TypeError:unhashable?type:'dict'錯(cuò)誤的解決辦法
這篇文章主要給大家介紹了關(guān)于Python中TypeError:unhashable?type:'dict'錯(cuò)誤的解決辦法,文中通過(guò)實(shí)例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2023-04-04Python之Anaconda啟動(dòng)過(guò)程中的異常錯(cuò)誤問(wèn)題及解決
這篇文章主要介紹了Python之Anaconda啟動(dòng)過(guò)程中的異常錯(cuò)誤問(wèn)題及解決方案,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2023-09-09連接pandas以及數(shù)組轉(zhuǎn)pandas的方法
今天小編就為大家分享一篇連接pandas以及數(shù)組轉(zhuǎn)pandas的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-06-06