關于tensorflow的幾種參數(shù)初始化方法小結(jié)
在tensorflow中,經(jīng)常會遇到參數(shù)初始化問題,比如在訓練自己的詞向量時,需要對原始的embeddigs矩陣進行初始化,更一般的,在全連接神經(jīng)網(wǎng)絡中,每層的權值w也需要進行初始化。
tensorlfow中應該有一下幾種初始化方法
1. tf.constant_initializer() 常數(shù)初始化 2. tf.ones_initializer() 全1初始化 3. tf.zeros_initializer() 全0初始化 4. tf.random_uniform_initializer() 均勻分布初始化 5. tf.random_normal_initializer() 正態(tài)分布初始化 6. tf.truncated_normal_initializer() 截斷正態(tài)分布初始化 7. tf.uniform_unit_scaling_initializer() 這種方法輸入方差是常數(shù) 8. tf.variance_scaling_initializer() 自適應初始化 9. tf.orthogonal_initializer() 生成正交矩陣
具體的
1、tf.constant_initializer(),它的簡寫是tf.Constant()
#coding:utf-8 import numpy as np import tensorflow as tf train_inputs = [[1,2],[1,4],[3,2]] with tf.variable_scope("embedding-layer"): val = np.array([[1,2,3,4,5,6,7],[1,3,4,5,2,1,9],[0,12,3,4,5,7,8],[2,3,5,5,6,8,9],[3,1,6,1,2,3,5]]) const_init = tf.constant_initializer(val) embeddings = tf.get_variable("embed",shape=[5,7],dtype=tf.float32,initializer=const_init) embed = tf.nn.embedding_lookup(embeddings, train_inputs) #在embedding中查找train_input所對應的表示 print("embed",embed) sum_embed = tf.reduce_mean(embed,1) initall = tf.global_variables_initializer() with tf.Session() as sess: sess.run(initall) print(sess.run(embed)) print(sess.run(tf.shape(embed))) print(sess.run(sum_embed))
4、random_uniform_initializer = RandomUniform()
可簡寫為tf.RandomUniform()
生成均勻分布的隨機數(shù),參數(shù)有四個(minval=0, maxval=None, seed=None, dtype=dtypes.float32),分別用于指定最小值,最大值,隨機數(shù)種子和類型。
6、tf.truncated_normal_initializer()
可簡寫tf.TruncatedNormal()
生成截斷正態(tài)分布的隨機數(shù),這個初始化方法在tf中用得比較多。
它有四個參數(shù)(mean=0.0, stddev=1.0, seed=None, dtype=dtypes.float32),分別用于指定均值、標準差、隨機數(shù)種子和隨機數(shù)的數(shù)據(jù)類型,一般只需要設置stddev這一個參數(shù)就可以了。
8、tf.variance_scaling_initializer()
可簡寫為tf.VarianceScaling()
參數(shù)為(scale=1.0,mode="fan_in",distribution="normal",seed=None,dtype=dtypes.float32)
scale: 縮放尺度(正浮點數(shù))
mode: "fan_in", "fan_out", "fan_avg"中的一個,用于計算標準差stddev的值。
distribution:分布類型,"normal"或“uniform"中的一個。
當 distribution="normal" 的時候,生成truncated normal distribution(截斷正態(tài)分布) 的隨機數(shù),其中stddev = sqrt(scale / n) ,n的計算與mode參數(shù)有關。
如果mode = "fan_in", n為輸入單元的結(jié)點數(shù);
如果mode = "fan_out",n為輸出單元的結(jié)點數(shù);
如果mode = "fan_avg",n為輸入和輸出單元結(jié)點數(shù)的平均值。
當distribution="uniform”的時候 ,生成均勻分布的隨機數(shù),假設分布區(qū)間為[-limit, limit],則 limit = sqrt(3 * scale / n)
以上這篇關于tensorflow的幾種參數(shù)初始化方法小結(jié)就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
python中判斷類型函數(shù)isinstance()示例詳解
isinstance()函數(shù)是Python的內(nèi)置函數(shù),用于判斷一個變量是否是某個類型或者是該類型的子類的實例,在Python中,所有類都繼承自object,所以任何實例都會是object的實例,本文給大家介紹python中判斷類型函數(shù)isinstance(),感興趣的朋友一起看看吧2024-10-10python matplotlib餅狀圖參數(shù)及用法解析
這篇文章主要介紹了python matplotlib餅狀圖參數(shù)及用法解析,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2019-11-11PyTorch實現(xiàn)MNIST數(shù)據(jù)集手寫數(shù)字識別詳情
這篇文章主要介紹了PyTorch實現(xiàn)MNIST數(shù)據(jù)集手寫數(shù)字識別詳情,文章圍繞主題展開詳細的內(nèi)容戒殺,具有一定的參考價值,需要的朋友可以參考一下2022-09-09numpy庫ndarray多維數(shù)組的維度變換方法(reshape、resize、swapaxes、flatten)
這篇文章主要介紹了numpy庫ndarray多維數(shù)組的維度變換方法(reshape、resize、swapaxes、flatten),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-04-04Python實現(xiàn)數(shù)據(jù)的序列化操作詳解
在日常開發(fā)中,對數(shù)據(jù)進行序列化和反序列化是常見的數(shù)據(jù)操作,Python提供了兩個模塊方便開發(fā)者實現(xiàn)數(shù)據(jù)的序列化操作,即?json?模塊和?pickle?模塊。本文就為大家詳細講解這兩個模塊的使用,需要的可以參考一下2022-07-07pandas 轉(zhuǎn)換成行列表進行讀取與Nan處理的方法
今天小編就為大家分享一篇pandas 轉(zhuǎn)換成行列表進行讀取與Nan處理的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-10-10