深度学习方法(十六):Batch Normalization及其变种——Layer Norm, Group Norm,Weight Norm等

本文主要是介绍深度学习方法(十六):Batch Normalization及其变种——Layer Norm, Group Norm,Weight Norm等,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

很久没写博文了,今天晚上得点空, 抽时间把一块很基础的Layer设计——归一化层写一下,主要是方便自己日后查阅。写的可能会有点慢,有空就写一点。

本文的内容包括:

  • Batch Normalization
  • Layer Normalization
  • Instance Normalization
  • Group Normalization
  • Weight Normalization
  • Batch Renormalization
  • Spectral Normalization for GAN

Batch Normalization

第一篇肯定要讲下BN,现在BN基本上成为CNN类网络的标配,它通过缩放每一层Feature map值至均值0,方差1,让Feature map的分布在训练过程中不要发生大的变化,以此来加速网络的收敛。论文提到,这个就是受CV里面“白化Whitening”的启发,Whitening在很多图像处理中运用。

至于论文通篇在讲的为了避免 internal covariate shift,似乎略有牵强,在今年ICLR上还有专门文章问题原论文中该观点是错误的,就不细说了,感兴趣的同学建议还是去看下原文[1],我想这么多Normalization论文,至少要看看这一篇最经典的。

需要注意的是BN在训练过程和推理过程计算步骤是一样的,区别在于均值方差的来源。训练时来自于当前mini-batch统计而来;而推理时是通过整个之前的训练过程得到,因此是fix的。

BN在训练阶段的前向过程如下:
在这里插入图片描述

Mini-batch就是指在一个计算device上,一次计算的图片张数(假设数据是图片),在这个Mini-batch上统计出mean、variance,然后做normalize,最后为了让Feature Map可以缩放,又重新引入了较为简单的 γ \gamma γ β \beta β。在数量上,每一个输出的channel会各有1个mean,var, γ \gamma γ β \beta β

BN的训练反向如果不想细看也可以不看,因为BN整个过程是可微的,因此在当前的framework下都可以自动完成反向传播。过程如下:

在这里插入图片描述
很基础的链式求导法则,通过前面的前向过程反过来求导,可以一步一步的推出上述结果。

BN所处的位置:一般是紧跟在Conv或者FC层之后,激活函数之前,即Conv - BN - Scale - Relu。当然,也有一些论文研究BN到底应该放在哪,目前看也并没有必然,毕竟BN只是起了一个归一化的作用,不同地方对不同网络有好有坏。BN有一个很大的作用就是:宣布了从12年Alexnet开始的Local Response Normalization层的结束,从BN之后基本没有再用LRN层了(这个层计算真的很变扭)。

Layer Norm,Instance Norm,Group Norm

在这里插入图片描述
借用He Kaiming大神的论文[2]中的图,简单总结了一下这几种类型的差异。
都要做归一化操作:
在这里插入图片描述
而均值方差计算公式都是:
在这里插入图片描述
唯一的区别就是计算均值方差的范围不同。

  • Layer Norm:因为BN需要统计一个小batch,但是当batch太小比如=1,2这样的时候,BN有时候会有些问题,因此有人设计出了LN,即对整个样本自己统计一组mean和var,而无需关心其他样本。
  • Instance Norn:会每个样本的每个channel统计一组mean和var
  • Group Norm:取了一个折中,每个样本的部分channel统计一组mean和var

后面还有一个Scale层,就是在这里插入图片描述
一律都是per-channel的 γ \gamma γ β \beta β,上述几个方法都是一致的。

Weight Normalization

这篇和前面的思路不同,是通过限制Weight的范围来让训练变得更快,方法非常简单:不直接训练W,而是训练v和g

在这里插入图片描述
v和w一样size,g是一个标量,让w可以有比较容易地缩放。这个过程本身就是可微的,在framework中比较容易实现。论文还提到了一句,为了让g伸缩更快,可以采用exponential parameterization,即 g = e s g = e^s g=es,然后优化的是s。但是论文说通过实验,发现似乎没有明显的差异。

参考资料

[1] Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift
[2] Group Normalization
[3] Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks
[4]
[5]

这篇关于深度学习方法(十六):Batch Normalization及其变种——Layer Norm, Group Norm,Weight Norm等的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/600104

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

浅谈主机加固,六种有效的主机加固方法

在数字化时代,数据的价值不言而喻,但随之而来的安全威胁也日益严峻。从勒索病毒到内部泄露,企业的数据安全面临着前所未有的挑战。为了应对这些挑战,一种全新的主机加固解决方案应运而生。 MCK主机加固解决方案,采用先进的安全容器中间件技术,构建起一套内核级的纵深立体防护体系。这一体系突破了传统安全防护的局限,即使在管理员权限被恶意利用的情况下,也能确保服务器的安全稳定运行。 普适主机加固措施:

webm怎么转换成mp4?这几种方法超多人在用!

webm怎么转换成mp4?WebM作为一种新兴的视频编码格式,近年来逐渐进入大众视野,其背后承载着诸多优势,但同时也伴随着不容忽视的局限性,首要挑战在于其兼容性边界,尽管WebM已广泛适应于众多网站与软件平台,但在特定应用环境或老旧设备上,其兼容难题依旧凸显,为用户体验带来不便,再者,WebM格式的非普适性也体现在编辑流程上,由于它并非行业内的通用标准,编辑过程中可能会遭遇格式不兼容的障碍,导致操

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验