欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Tensorflow中的降維函數(shù)tf.reduce_*使用總結(jié)

 更新時間:2020年04月20日 16:24:31   作者:沖動老少年  
這篇文章主要介紹了Tensorflow中的降維函數(shù)tf.reduce_*使用總結(jié),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧

在使用tensorflow時常常會使用到tf.reduce_*這類的函數(shù),在此對一些常見的函數(shù)進(jìn)行匯總

1.tf.reduce_sum

tf.reduce_sum(input_tensor , axis = None , keep_dims = False , name = None , reduction_indices = None)

參數(shù):

  • input_tensor:要減少的張量。應(yīng)該有數(shù)字類型。
  • axis:要減小的尺寸。如果為None(默認(rèn)),則縮小所有尺寸。必須在范圍[-rank(input_tensor), rank(input_tensor))內(nèi)。
  • keep_dims:如果為true,則保留長度為1的縮小尺寸。
  • name:操作的名稱(可選)。
  • reduction_indices:axis的廢棄的名稱。

返回:

該函數(shù)返回減少的張量,相當(dāng)于np.sum

功能:

此函數(shù)計(jì)算一個張量的各個維度上元素的總和。

說明:

函數(shù)中的input_tensor是按照axis中已經(jīng)給定的維度來減少的;除非 keep_dims 是true,否則張量的秩將在axis的每個條目中減少1;如果keep_dims為true,則減小的維度將保留為長度1。 如果axis沒有條目,則縮小所有維度,并返回具有單個元素的張量。

舉例:

x = tf.constant([[1, 1, 1], [1, 1, 1]])
tf.reduce_sum(x) # 6
tf.reduce_sum(x, 0) # [2, 2, 2]
tf.reduce_sum(x, 1) # [3, 3]
tf.reduce_sum(x, 1, keep_dims=True) # [[3], [3]]
tf.reduce_sum(x, [0, 1]) # 6

2.reduce_min

reduce_min(input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None)

參數(shù):

  • input_tensor:減少的張量。應(yīng)該有數(shù)字類型。
  • axis:要減小的尺寸。如果為None(默認(rèn)),則縮小所有維度。必須在[-rank(input_tensor), rank(input_tensor))范圍內(nèi)。
  • keep_dims:如果為true,則保留長度為1的縮小維度。
  • name:操作的名稱(可選)。
  • reduction_indices:axis的廢棄的名稱。

返回:

該函數(shù)返回減少的張量,相當(dāng)于np.min

功能:

tf.reduce_min函數(shù)用來計(jì)算一個張量的各個維度上元素的最小值。 

說明:

同樣按照axis給定的維度減少input_tensor。除非 keep_dims 是true,否則張量的秩將在axis的每個條目中減少1。如果keep_dims為true,則減小的維度將保留為長度1。 如果axis沒有條目,則縮小所有維度,并返回具有單個元素的張量。

3.reduce_max

reduce_max(input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None)

參數(shù):

  • input_tensor:要減少的張量。應(yīng)該有數(shù)字類型。
  • axis:要減小的尺寸。如果為 None(默認(rèn)),則減少所有維度。必須在[-rank(input_tensor), rank(input_tensor))范圍內(nèi)。
  • keep_dims:如果為true,則保留長度為1的減少維度。
  • name:操作的名稱(可選)。
  • reduction_indices:axis的廢棄的名稱。

返回:

該函數(shù)返回減少的張量,相當(dāng)于np.max。

功能:

計(jì)算一個張量的各個維度上元素的最大值。 

說明:

按照axis給定的維度減少input_tensor。除非 keep_dims 是true,否則張量的秩將在axis的每個條目中減少1。如果keep_dims為true,則減小的維度將保留為長度1。如果axis沒有條目,則減少所有維度,并返回具有單個元素的張量。

4.reduce_mean

reduce_mean

5.reduce_all

reduce_all(input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None)

參數(shù):

  • input_tensor:要減少的張量。應(yīng)該有數(shù)字類型。
  • axis:要減小的尺寸。如果為None(默認(rèn)),則減少所有維度。必須在[-rank(input_tensor), rank(input_tensor))范圍內(nèi)。
  • keep_dims:如果為true,則保留長度為1的縮小尺寸。
  • name:操作的名稱(可選)。
  • reduction_indices:axis的不支持使用的名稱。

返回:

該函數(shù)返回減少的張量,相當(dāng)于np.mean

功能:

計(jì)算張量的各個維度上的元素的平均值。

說明:

axis是tf.reduce_mean函數(shù)中的參數(shù),按照函數(shù)中axis給定的維度減少input_tensor。除非keep_dims是true,否則張量的秩將在axis的每個條目中減少1。如果keep_dims為true,則縮小的維度將保留為1。 如果axis沒有條目,則減少所有維度,并返回具有單個元素的張量。

舉例:

x = tf.constant([[1., 1.], [2., 2.]])
tf.reduce_mean(x) # 1.5
tf.reduce_mean(x, 0) # [1.5, 1.5]
tf.reduce_mean(x, 1) # [1., 2.]

6.reduce_any

reduce_any(input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None)

參數(shù):

  • input_tensor:要減少的布爾張量。
  • axis:要減小的尺寸。如果為None(默認(rèn)),則減少所有維度。必須在范圍[-rank(input_tensor), rank(input_tensor))內(nèi)。
  • keep_dims:如果為true,則保留長度為1的縮小維度。
  • name:操作的名稱(可選)。
  • reduction_indices:axis的已經(jīng)棄用的名稱。

返回:

減少張量,相當(dāng)于np.any

功能:

在張量的維度上計(jì)算元素的 "邏輯或"。 

說明:

按照axis給定的維度減少input_tensor。除非 keep_dims 是 true,否則張量的秩將在axis的每個條目中減少1。如果keep_dims為true,則縮小的維度將保留為1。如果axis沒有條目,則會減少所有維度,并返回具有單個元素的張量。

舉例:

x = tf.constant([[True, True], [False, False]])
tf.reduce_any(x) # True
tf.reduce_any(x, 0) # [True, True]
tf.reduce_any(x, 1) # [True, False]

7.reduce_logsumexp

reduce_logsumexp(input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None)

參數(shù):

  • input_tensor:張量減少。應(yīng)該有數(shù)字類型。
  • axis:要減小的維度。如果為None(默認(rèn)),則減少所有維度。必須在[-rank(input_tensor), rank(input_tensor))范圍內(nèi)。
  • keep_dims:如果為true,則保留長度為1的減少尺寸。
  • name:操作的名稱(可選)。
  • reduction_indices:axis的棄用名稱。

返回:

減少的張量。

功能:

計(jì)算log(sum(exp(張量的各維數(shù)的元素)))。 

說明:

按照給定的axis上的維度減少input_tensor。除非keep_dims是true,否則張量的秩在axis上的每一項(xiàng)都減少1。如果keep_dims為 true,則減少的尺寸將保留為1。如果axis沒有條目,則縮小所有維度,并返回具有單個元素的張量。這個函數(shù)在數(shù)值上比 log(sum(exp(input)))更穩(wěn)定。它避免了大量輸入的 exp 引起的溢出和小輸入日志帶來的下溢。

舉例:

x = tf.constant([[0., 0., 0.], [0., 0., 0.]])
tf.reduce_logsumexp(x) # log(6)
tf.reduce_logsumexp(x, 0) # [log(2), log(2), log(2)]
tf.reduce_logsumexp(x, 1) # [log(3), log(3)]
tf.reduce_logsumexp(x, 1, keep_dims=True) # [[log(3)], [log(3)]]
tf.reduce_logsumexp(x, [0, 1]) # log(6)

8.reduce_prod

reduce_prod(input_tensor, axis=None, keep_dims=False, name=None, reduction_indices=None)

參數(shù):

  • input_tensor:要減少的張量。應(yīng)該有數(shù)字類型。
  • axis:要減小的尺寸。如果為None(默認(rèn)),則將縮小所有尺寸。必須在[-rank(input_tensor), rank(input_tensor))范圍內(nèi)。
  • keep_dims:如果為true,則保留長度為1的縮小維度。
  • name:操作的名稱(可選)。
  • reduction_indices:axis的廢棄的名稱。

返回:

結(jié)果返回減少的張量,相當(dāng)于np.prod

功能:

此函數(shù)計(jì)算一個張量的各個維度上元素的乘積。 

說明:

函數(shù)中的input_tensor是按照axis中已經(jīng)給定的維度來減少的;除非 keep_dims 是true,否則張量的秩將在axis的每個條目中減少1;如果keep_dims為true,則減小的維度將保留為長度1。 如果axis沒有條目,則縮小所有維度,并返回具有單個元素的張量。

到此這篇關(guān)于Tensorflow中的降維函數(shù)tf.reduce_*使用總結(jié)的文章就介紹到這了,更多相關(guān)Tensorflow 降維函數(shù)tf.reduce_*內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • python3安裝及pip3報(bào)ERROR:No?matching?distribution?found?for解決方法

    python3安裝及pip3報(bào)ERROR:No?matching?distribution?found?for解

    這篇文章主要給大家介紹了關(guān)于python3安裝及pip3報(bào)ERROR:No?matching?distribution?found?for解決的相關(guān)資料,文中通過代碼以及圖文介紹的非常詳細(xì),需要的朋友可以參考下
    2023-08-08
  • Python3 io文本及原始流I/O工具用法詳解

    Python3 io文本及原始流I/O工具用法詳解

    這篇文章主要介紹了Python3 io文本及原始流I/O工具用法詳解,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2020-03-03
  • PyTorch中torch.no_grad()用法舉例詳解

    PyTorch中torch.no_grad()用法舉例詳解

    這篇文章主要介紹了PyTorch中torch.no_grad()用法的相關(guān)資料,torch.no_grad()是PyTorch的上下文管理器,用于臨時禁用自動梯度計(jì)算,減少內(nèi)存消耗并加快計(jì)算速度,它適用于模型評估或推理階段,可以顯著提高效率,需要的朋友可以參考下
    2024-09-09
  • sklearn線性邏輯回歸和非線性邏輯回歸的實(shí)現(xiàn)

    sklearn線性邏輯回歸和非線性邏輯回歸的實(shí)現(xiàn)

    這篇文章主要介紹了sklearn線性邏輯回歸和非線性邏輯回歸的實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2020-06-06
  • 在Django中Pyecharts生成圖表實(shí)現(xiàn)

    在Django中Pyecharts生成圖表實(shí)現(xiàn)

    pyecharts是支持python的一種可視化,那么在Django中Pyecharts如何生成圖表,主要有兩種方法,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2021-05-05
  • Python openpyxl模塊實(shí)現(xiàn)excel讀寫操作

    Python openpyxl模塊實(shí)現(xiàn)excel讀寫操作

    這篇文章主要介紹了Python openpyxl模塊實(shí)現(xiàn)excel讀寫操作,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2020-06-06
  • Python中的JMESPath庫示例詳解

    Python中的JMESPath庫示例詳解

    這篇文章主要介紹了Python中的JMESPath庫示例詳解,JMESPath的基本思想是使用類似于XPath的路徑表達(dá)式來指定要從JSON結(jié)構(gòu)中提取哪些數(shù)據(jù),它允許您以一致的方式導(dǎo)航和過濾JSON對象和數(shù)組,需要的朋友可以參考下
    2023-09-09
  • Python神奇的內(nèi)置函數(shù)locals的實(shí)例講解

    Python神奇的內(nèi)置函數(shù)locals的實(shí)例講解

    今天小編就為大家分享一篇關(guān)于Python神奇的內(nèi)置函數(shù)locals的實(shí)例講解,小編覺得內(nèi)容挺不錯的,現(xiàn)在分享給大家,具有很好的參考價值,需要的朋友一起跟隨小編來看看吧
    2019-02-02
  • keras和tensorflow使用fit_generator 批次訓(xùn)練操作

    keras和tensorflow使用fit_generator 批次訓(xùn)練操作

    這篇文章主要介紹了keras和tensorflow使用fit_generator 批次訓(xùn)練操作,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-07-07
  • Python熱重載調(diào)試新利器問題解決

    Python熱重載調(diào)試新利器問題解決

    Reloading是一個Python工具庫,它讓我們可以在每次迭代之前從源代碼中重新加載(或函數(shù))而不丟失任何當(dāng)前已執(zhí)行過程,這篇文章主要介紹了Python熱重載調(diào)試新利器,需要的朋友可以參考下
    2024-06-06

最新評論