本文主要是介绍Tensorflow 权重衰减的使用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
在 tf.get_variable 这个函数中有一个命名参数为 regularizer,顾名思义,这个参数可用于正则化。在 Tensorflow 官网中,regularizer 的描述如下:
get_variable(name,shape=None,dtype=None,initializer=None,regularizer=None,trainable=True,collections=None,caching_device=None,partitioner=None,validate_shape=True,use_resource=None,custom_getter=None
)
regularizer: A (Tensor -> Tensor or None) function; the result of applying it on a newly created variable will be added to the collection tf.GraphKeys.REGULARIZATION_LOSSES and can be used for regularization.
在使用的时候,我们可以自定义一个函数,只要这个函数的输入参数和返回值都是 tensor,这个函数就能作为 regularizer 这个命名参数传入 get_variable 函数。例如我们可以定义如下的损失函数:
def regularizer(tensor):with tf.name_scope(scope, default_name='l2_regularizer', values=[tensor]):l2_weight = tf.convert_to_tensor(weight_decay, \dtype=tensor.dtype.base_dtype, \name='weight_decay')return tf.multiply(l2_weight, tf.nn.l2_loss(tensor), name='value')
我还没找到说明 tensor 这个参数的文档,猜测这个 tensor 传过来的变量就是 get_variable 这个函数的返回值,当我们用 get_variable 获取权重时,这个 tensor 就是权重,所以 regularizer 这个函数返回的就是一个 L2 正则项。
目前为止,我们仅仅是知道了这个参数的含义,但并不知道 Tensorflow 底层会怎样去使用这个参数。需要注意,Tensorflow 没有自动把这个正则项自动加到优化当中去,这意味着在构建 loss 阶段我们必须把正则项加入进去。
由官方文档可以知道,我们可以通过 tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES) 获取正则项,这个函数得到的是由若干个类型为 tensor 的元素构成的 list。具体来说,如果我们为网络中的 n 个权重变量都加上 regularizer 这个参数,那么在我们应该得到 n 个对应的正则项,从而通过函数 tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES) 能获取一个 n 个元素构成的 list,这里每一个元素分别对应不同的权重的正则项。
由 ufldl 的 Backpropagation Algorithm 可以知道在优化问题中,损失函数即为均方差以及所有权重的正则项之和,所以在构建 loss 时,我们只要把均方差与上述 tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES) 的所有元素之和相加即可得到最终的 loss。
regularization_losses = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
loss = tf.add_n(regularization_losses) + loss
这篇关于Tensorflow 权重衰减的使用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!