TensorFlow人工智能學(xué)習(xí)數(shù)據(jù)合并分割統(tǒng)計示例詳解
一、數(shù)據(jù)合并與分割
1.tf.concat()
填入兩個tensor, 指定某維度,在指定的維度合并。除了合并的維度之外,其他的維度必須相等。
2.tf.split()
填入tensor,指定維度,指定分割的數(shù)量。例如原數(shù)據(jù)維度是[2,4,35,8],當(dāng)分割數(shù)量指定為2,維度是最后一維時,會分割成兩個tensor,維度均是[2,4,35,4]。分割的維度,也可以直接指定數(shù)量及維度。比如指定為[2,2,4],則會分成三個tensor,最后一個維度分別是2,2,4。
3.tf.stack()
該方法會創(chuàng)造新的維度。要求兩個合并的數(shù)據(jù)維度全部一樣,在哪個維度合并,就會在哪個維度前面產(chǎn)生一個新維度,可以根據(jù)這個維度進(jìn)行選擇。
二、數(shù)據(jù)統(tǒng)計
注意:tf中指定維度的時候,就是把指定的維度上的內(nèi)容進(jìn)行操作,保留剩下的維度。
比如(2,3),求范數(shù),如果指定axis=1,也就是列,那就是說,使用列上的3個數(shù)據(jù),去求范數(shù)。得到的就是2維向量。也就是,指定了哪個維度,就會消去哪個維度。
1.tf.norm()
求范數(shù),如果不指定幾范數(shù)就是二范數(shù)。
指定ord=1就是1范數(shù)??梢灾付ňS度,就是把指定的維度上的內(nèi)容求范數(shù),保留剩下的維度。
比如(2,3),如果指定axis=1,也就是列,那就是說,使用列上的3個數(shù)據(jù),去求范數(shù)。得到的就是2維向量。也就是,指定了哪個維度,就會消去哪個維度。
2.reduce_min/max/mean()
求數(shù)據(jù)的最小值、最大值、均值。這里有一個reduce,意思是提醒我們維度會降低。
3.tf.argmax/argmin()
返回最大值、最小值的索引,如果不指定維度,那就是默認(rèn)把第0維的求出來。
4.tf.equal()
填入兩個tensor,形狀需要一樣,返回一樣形狀的布爾tensor,可以通過先轉(zhuǎn)換成整型(1,0),再累加的方式,求得兩個tensor中相同數(shù)據(jù)的數(shù)量。
5.tf.unique()
和numpy中的unique一樣。
以上就是TensorFlow人工智能學(xué)習(xí)數(shù)據(jù)合并分割統(tǒng)計示例詳解的詳細(xì)內(nèi)容,更多關(guān)于TensorFlow數(shù)據(jù)合并分割統(tǒng)計的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
超詳細(xì)注釋之OpenCV dlib實現(xiàn)人臉采集
這篇文章主要介紹了OpenCV dlib實現(xiàn)人臉采集,本文給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2021-09-09Python減少循環(huán)層次和縮進(jìn)的技巧分析
這篇文章主要介紹了Python減少循環(huán)層次和縮進(jìn)的技巧,結(jié)合實例形式較為詳細(xì)的分析了Python優(yōu)化代碼跳出循環(huán)以減少循環(huán)層次的技巧,具有一定參考借鑒價值,需要的朋友可以參考下2016-03-03pytorch 計算ConvTranspose1d輸出特征大小方式
這篇文章主要介紹了pytorch 計算ConvTranspose1d輸出特征大小方式,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-06-06python實現(xiàn)根據(jù)給定坐標(biāo)點生成多邊形mask的例子
今天小編就為大家分享一篇python實現(xiàn)根據(jù)給定坐標(biāo)點生成多邊形mask的例子,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-02-02Linux系統(tǒng)上Nginx+Python的web.py與Django框架環(huán)境
這篇文章主要介紹了Linux系統(tǒng)上Nginx+Python的web.py與Django框架環(huán)境,文中使用fastcgi作為連接,需要的朋友可以參考下2015-12-12