1. 程式人生 > 程式設計 >Tensorflow之梯度裁剪的實現示例

Tensorflow之梯度裁剪的實現示例

tensorflow中的梯度計算和更新

為了解決深度學習中常見的梯度消失(gradient explosion)和梯度爆炸(gradients vanishing)問題,tensorflow中所有的優化器tf.train.xxxOptimizer都有兩個方法:

  1. compute_gradients
  2. apply_gradients

compute_gradients

對於compute_gradients方法,計算var_list中引數的梯度,使得loss變小。預設情況下,var_list為GraphKeys.TRAINABLE_VARIABLES中的所有引數。

compute_gradients方法返回由多個(gradients, variable)二元組組成的列表。

compute_gradients(
  loss,var_list=None,gate_gradients=GATE_OP,aggregation_method=None,colocate_gradients_with_ops=False,grad_loss=None
)

apply_gradients

對於apply_gradients方法,根據compute_gradients的返回結果對引數進行更新

apply_gradients(
  grads_and_vars,global_step=None,name=None
)

梯度裁剪(Gradient Clipping)


tensorflow中裁剪梯度的幾種方式

方法一tf.clip_by_value

def clip_by_value(t,clip_value_min,clip_value_max,name=None):

其中,t為一個張量,clip_by_value返回一個與t的type相同、shape相同的張量,但是新tensor中的值被裁剪到了clip_value_min和clip_value_max之間。

方法二:tf.clip_by_global_norm

def clip_by_global_norm(t_list,clip_norm,use_norm=None,name=None):

其中,t_list為A tuple or list of mixed Tensors,IndexedSlices,or None。clip_norm為clipping ratio,use_norm指定global_norm,如果use_norm為None,則按global_norm = sqrt(sum([l2norm(t)**2 for t in t_list]))計算global_norm。

最終,梯度的裁剪方式為

Tensorflow之梯度裁剪的實現示例

可知,如果clip_norm > global_norm,則不對梯度進行裁剪,否則對梯度進行縮放。

  scale = clip_norm * math_ops.minimum(
    1.0 / use_norm,constant_op.constant(1.0,dtype=use_norm.dtype) / clip_norm)

方法的返回值為裁剪後的梯度列表list_clipped和global_norm

示例程式碼

optimizer = tf.train.AdamOptimizer(learning_rate)
gradients,v = zip(*optimizer.compute_gradients(loss))
gradients,_ = tf.clip_by_global_norm(gradients,grad_clip)
updates = optimizer.apply_gradients(zip(gradients,v),global_step=global_step)

方法三tf.clip_by_average_norm

def clip_by_average_norm(t,name=None):

t為張量,clip_norm為maximum clipping value

裁剪方式如下,

Tensorflow之梯度裁剪的實現示例

其中,avg_norm=l2norm_avg(t)

方法四:tf.clip_by_norm

def clip_by_norm(t,axes=None,name=None):

t為張量,clip_norm為maximum clipping value

裁剪方式為

Tensorflow之梯度裁剪的實現示例

示例程式碼

optimizer = tf.train.AdamOptimizer(learning_rate,beta1=0.5)
grads = optimizer.compute_gradients(cost)
for i,(g,v) in enumerate(grads):
  if g is not None:
    grads[i] = (tf.clip_by_norm(g,5),v) # clip gradients
train_op = optimizer.apply_gradients(grads)

注意到,clip_by_value、clib_by-avg_norm和clip_by_norm都是針對於單個張量的,而clip_by_global_norm可用於多個張量組成的列表。

到此這篇關於Tensorflow之梯度裁剪的實現示例的文章就介紹到這了,更多相關Tensorflow 梯度裁剪內容請搜尋我們以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援我們!