Tensorflow之梯度裁剪的實(shí)現(xiàn)示例
tensorflow中的梯度計(jì)算和更新
為了解決深度學(xué)習(xí)中常見的梯度消失(gradient explosion)和梯度爆炸(gradients vanishing)問題,tensorflow中所有的優(yōu)化器tf.train.xxxOptimizer都有兩個(gè)方法:
- compute_gradients
- apply_gradients
compute_gradients
對(duì)于compute_gradients方法,計(jì)算var_list中參數(shù)的梯度,使得loss變小。默認(rèn)情況下,var_list為GraphKeys.TRAINABLE_VARIABLES中的所有參數(shù)。
compute_gradients方法返回由多個(gè)(gradients, variable)二元組組成的列表。
compute_gradients( loss, var_list=None, gate_gradients=GATE_OP, aggregation_method=None, colocate_gradients_with_ops=False, grad_loss=None )
apply_gradients
對(duì)于apply_gradients方法,根據(jù)compute_gradients的返回結(jié)果對(duì)參數(shù)進(jìn)行更新
apply_gradients( grads_and_vars, global_step=None, name=None )
梯度裁剪(Gradient Clipping)
tensorflow中裁剪梯度的幾種方式
方法一tf.clip_by_value
def clip_by_value(t, clip_value_min, clip_value_max, name=None):
其中,t為一個(gè)張量,clip_by_value返回一個(gè)與t的type相同、shape相同的張量,但是新tensor中的值被裁剪到了clip_value_min和clip_value_max之間。
方法二:tf.clip_by_global_norm
def clip_by_global_norm(t_list, clip_norm, use_norm=None, name=None):
其中,t_list為A tuple or list of mixed Tensors, IndexedSlices, or None。clip_norm為clipping ratio,use_norm指定global_norm,如果use_norm為None,則按global_norm = sqrt(sum([l2norm(t)**2 for t in t_list]))計(jì)算global_norm。
最終,梯度的裁剪方式為
可知,如果clip_norm > global_norm, 則不對(duì)梯度進(jìn)行裁剪,否則對(duì)梯度進(jìn)行縮放。
scale = clip_norm * math_ops.minimum( 1.0 / use_norm, constant_op.constant(1.0, dtype=use_norm.dtype) / clip_norm)
方法的返回值為裁剪后的梯度列表list_clipped和global_norm
示例代碼
optimizer = tf.train.AdamOptimizer(learning_rate) gradients, v = zip(*optimizer.compute_gradients(loss)) gradients, _ = tf.clip_by_global_norm(gradients, grad_clip) updates = optimizer.apply_gradients(zip(gradients, v),global_step=global_step)
方法三tf.clip_by_average_norm
def clip_by_average_norm(t, clip_norm, name=None):
t為張量,clip_norm為maximum clipping value
裁剪方式如下,
其中,avg_norm=l2norm_avg(t)
方法四:tf.clip_by_norm
def clip_by_norm(t, clip_norm, axes=None, name=None):
t為張量,clip_norm為maximum clipping value
裁剪方式為
示例代碼
optimizer = tf.train.AdamOptimizer(learning_rate, beta1=0.5) grads = optimizer.compute_gradients(cost) for i, (g, v) in enumerate(grads): if g is not None: grads[i] = (tf.clip_by_norm(g, 5), v) # clip gradients train_op = optimizer.apply_gradients(grads)
注意到,clip_by_value、clib_by-avg_norm和clip_by_norm都是針對(duì)于單個(gè)張量的,而clip_by_global_norm可用于多個(gè)張量組成的列表。
到此這篇關(guān)于Tensorflow之梯度裁剪的實(shí)現(xiàn)示例的文章就介紹到這了,更多相關(guān)Tensorflow 梯度裁剪內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
python 實(shí)現(xiàn)全球IP歸屬地查詢工具
這篇文章主要介紹了python 實(shí)現(xiàn)全球IP歸屬地查詢工具的示例代碼,幫助大家更好的理解和使用python,感興趣的朋友可以了解下2020-12-12Centos安裝python3與scapy模塊的問題及解決方法
這篇文章主要介紹了Centos安裝python3與scapy模塊的問題,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2022-07-07Python+pyplot繪制帶文本標(biāo)注的柱狀圖方法
今天小編就為大家分享一篇Python+pyplot繪制帶文本標(biāo)注的柱狀圖方法,具有很好的價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-07-07python讀取大型csv文件的操作方法(降低內(nèi)存占用)
遇到大型的csv文件時(shí),pandas會(huì)把該文件全部加載進(jìn)內(nèi)存,從而導(dǎo)致程序運(yùn)行速度變慢,本文提供了批量讀取csv文件、讀取屬性列的方法,減輕內(nèi)存占用情況,文中有詳細(xì)的代碼示例,需要的朋友可以參考下2024-03-03在python中將字符串轉(zhuǎn)為json對(duì)象并取值的方法
今天小編就為大家分享一篇在python中將字符串轉(zhuǎn)為json對(duì)象并取值的方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2018-12-12Ubuntu下Python+Flask分分鐘搭建自己的服務(wù)器教程
今天小編就為大家分享一篇Ubuntu下Python+Flask分分鐘搭建自己的服務(wù)器教程,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-11-11