python人工智能tensorflow函數(shù)tf.get_collection使用方法
參數(shù)數(shù)量及其作用
該函數(shù)共有兩個(gè)參數(shù),分別是key和scope。
def get_collection(key, scope=None) Wrapper for Graph.get_collection() using the default graph. See tf.Graph.get_collection for more details. Args: key: The key for the collection. For example, the `GraphKeys` class contains many standard names for collections. scope: (Optional.) If supplied, the resulting list is filtered to include only items whose `name` attribute matches using `re.match`. Items without a `name` attribute are never returned if a scope is supplied and the choice or `re.match` means that a `scope` without special tokens filters by prefix. Returns: The list of values in the collection with the given `name`, or an empty list if no value has been added to that collection. The list contains the values in the order under which they were collected.
該函數(shù)的作用是從一個(gè)collection中取出全部變量,形成列個(gè)列表,key參數(shù)中輸入的是collection的名稱。
該函數(shù)常常與tf.get_variable和tf.add_to_collection配合使用。
例子
該例子將分別舉例tf.get_collection與tf.get_variable和tf.add_to_collection的配合使用方法。
import tensorflow as tf; import numpy as np; c1 = ['c1', tf.GraphKeys.GLOBAL_VARIABLES] v1 = tf.get_variable('v1', [1], initializer=tf.constant_initializer(1),collections=c1) v2 = tf.get_variable('v2', [1], initializer=tf.constant_initializer(2)) tf.add_to_collection('c2', v2) with tf.Session() as sess: sess.run(tf.global_variables_initializer()) print(tf.get_collection('c1')) print(tf.get_collection('c2'))
其輸出為:
[<tf.Variable 'v1:0' shape=(1,) dtype=float32_ref>] [<tf.Variable 'v2:0' shape=(1,) dtype=float32_ref>]
tf.get_variable的用法可以參照我的另一篇博文:
python人工智能tensorflow函數(shù)tf.get_variable使用方法
以上就是python人工智能tensorflow函數(shù)tf.get_collection使用方法的詳細(xì)內(nèi)容,更多關(guān)于tensorflow函數(shù)tf.get_collection的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Linux上使用Python統(tǒng)計(jì)每天的鍵盤輸入次數(shù)
這篇文章主要介紹了Linux上使用Python統(tǒng)計(jì)每天的鍵盤輸入次數(shù),非常不錯(cuò),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2019-04-04Python深度學(xué)習(xí)pytorch卷積神經(jīng)網(wǎng)絡(luò)LeNet
這篇文章主要為大家講解了Python深度學(xué)習(xí)中的pytorch卷積神經(jīng)網(wǎng)絡(luò)LeNet的示例解析,有需要的朋友可以借鑒參考下希望能夠有所幫助2021-10-10Python實(shí)現(xiàn)監(jiān)控內(nèi)存使用情況和代碼執(zhí)行時(shí)間
我的代碼的哪些部分運(yùn)行時(shí)間最長、內(nèi)存最多?我怎樣才能找到需要改進(jìn)的地方?在開發(fā)過程中,我很確定我們大多數(shù)人都會(huì)想知道這一點(diǎn)。本文總結(jié)了一些方法來監(jiān)控?Python?代碼的時(shí)間和內(nèi)存使用情況,希望對(duì)大家有所幫助2023-01-01uwsgi啟動(dòng)django項(xiàng)目的實(shí)現(xiàn)步驟
本文主要介紹了uwsgi啟動(dòng)django項(xiàng)目的實(shí)現(xiàn)步驟,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2022-08-08python如果快速判斷數(shù)字奇數(shù)偶數(shù)
這篇文章主要介紹了python如果快速判斷數(shù)字奇數(shù)偶數(shù),文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-11-11