Tensorflow的梯度異步更新示例
更新時間:2020年01月23日 18:11:22 作者:supe_king
今天小編就為大家分享一篇Tensorflow的梯度異步更新示例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
背景:
先說一下應(yīng)用吧,一般我們進行網(wǎng)絡(luò)訓練時,都有一個batchsize設(shè)置,也就是一個batch一個batch的更新梯度,能有這個batch的前提是這個batch中所有的圖片的大小一致,這樣才能組成一個placeholder。那么若一個網(wǎng)絡(luò)對圖片的輸入沒有要求,任意尺寸的都可以,但是我們又想一個batch一個batch的更新梯度怎么辦呢?
操作如下:
先計算梯度:
# 模型部分 Optimizer = tf.train.GradientDescentOptimizer(1) gradient = Optimizer.compute_gradients(loss) # 每次計算所有變量的梯度 grads_holder = [(tf.placeholder(tf.float32, shape=g.get_shape()), v) for (g, v) in gradient]# 將每次計算的梯度保存 optm = Optimizer.apply_gradients(grads_holder) # 進行梯度更新 # 初始化部分 sess = tf.Session() init = tf.global_variables_initializer() sess.run(init) # 實際訓練部分 grads = [] # 定義一個空的列表用于存儲每次計算的梯度 for i in range(batchsize): # batchsize設(shè)置在這里 x_i = ... # 輸入 y_real = ... # 標簽 grad_i = sess.run(gradient, feed_dict={inputs: x_i, outputs: y_real}) #梯度計算 grads.append(grad_i) # 梯度存儲 # 定義一個空的字典用于存儲,batchsize中所有梯度的和 grads_sum = {} # 將網(wǎng)絡(luò)中每個需要更新梯度的變量都遍歷一遍 for i in range(len(grads_holder)): k = grads_holder[i][0] # 得到該變量名 # 將該變量名下的所有梯度求和,這里也可以求平均,求平均只需要除以batchsize grads_sum[k] = sum([g[i][0] for g in grads]) # 完成梯度更新 sess.run(optm,feed_dict=grads_sum)
以上這篇Tensorflow的梯度異步更新示例就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
Sublime?Text?配置?Python?環(huán)境的問題及解決方案
這篇文章主要介紹了Sublime?Text?配置?Python?環(huán)境的問題,文中介紹了python自定義的構(gòu)建系統(tǒng)的完整代碼,代碼簡單易懂,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2022-01-01