TensorFlow人工智能學(xué)習(xí)數(shù)據(jù)填充復(fù)制實現(xiàn)示例
1.tf.pad()
該方法能夠給數(shù)據(jù)周圍填0,填的參數(shù)是:需要填充的數(shù)據(jù)+填0的位置
填0的位置是一個數(shù)組形式,對應(yīng)如下:[[上行,下行],[左列,右列]],具體例子如下:
較為常用的是上下左右各一行。
給圖片進(jìn)行padding的時候,通常數(shù)據(jù)的維度是[b,h,w,c],那么增加兩行,兩列的話,是在中間的h和w增加:
2.tf.tile()
該方法可以復(fù)制數(shù)據(jù),需要填的參數(shù):數(shù)據(jù),維度+對應(yīng)的復(fù)制次數(shù)。
broadcast_to = expand_dims + tile,通常情況下,只要操作符合broadcast原則就可以,連broadcast_to這個操作都不需要用,就會自動擴展并復(fù)制進(jìn)行操作。
以上就是TensorFlow人工智能學(xué)習(xí)數(shù)據(jù)填充復(fù)制實現(xiàn)示例的詳細(xì)內(nèi)容,更多關(guān)于TensorFlow數(shù)據(jù)填充復(fù)制的資料請關(guān)注腳本之家其它相關(guān)文章!
- TensorFlow人工智能學(xué)習(xí)數(shù)據(jù)類型信息及轉(zhuǎn)換
- TensorFlow人工智能學(xué)習(xí)按索引取數(shù)據(jù)及維度變換詳解
- TensorFlow卷積神經(jīng)網(wǎng)絡(luò)MNIST數(shù)據(jù)集實現(xiàn)示例
- TensorFlow神經(jīng)網(wǎng)絡(luò)創(chuàng)建多層感知機MNIST數(shù)據(jù)集
- TensorFlow教程Softmax邏輯回歸識別手寫數(shù)字MNIST數(shù)據(jù)集
- Tensorflow高性能數(shù)據(jù)優(yōu)化增強工具Pipeline使用詳解
相關(guān)文章
封裝Detours用于Python中x64函數(shù)hook詳解
Detours是微軟發(fā)布的一個API hook框架,同時支持x86和x64,看文檔說也支持ARM和ARM64的Windows,這篇文章主要介紹了封裝Detours用于Python中x64函數(shù)hook,需要的朋友可以參考下2023-12-12小結(jié)Python用fork來創(chuàng)建子進(jìn)程注意事項
今天看到別人的源代碼中有 fork 子進(jìn)程來操作數(shù)據(jù)。但是由于 fork 之后,沒有及時的退出,導(dǎo)致系統(tǒng)中的Python進(jìn)程越來越多,子進(jìn)程越來越多了。2014-07-07Python機器學(xué)習(xí)應(yīng)用之基于線性判別模型的分類篇詳解
線性判別分析(Linear?Discriminant?Analysis,?LDA)是一種監(jiān)督學(xué)習(xí)的降維方法,也就是說數(shù)據(jù)集的每個樣本是有類別輸出。和之前介紹的機器學(xué)習(xí)降維之主成分分析(PCA)方法不同,PCA是不考慮樣本類別輸出的無監(jiān)督學(xué)習(xí)方法2022-01-01Python基礎(chǔ)進(jìn)階之海量表情包多線程爬蟲功能的實現(xiàn)
這篇文章主要介紹了Python基礎(chǔ)進(jìn)階之海量表情包多線程爬蟲,本文通過實例代碼給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2020-12-12