本文主要是介绍LayerNorm的图是不是画错了,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
这是网上一张很流行的说明几个 Normalization 区别的图
这图出自Kaiming的文章 Group Norm
但是他这个 Layer Norm 的图是不是画错了? 我大四写毕设的时候就想问🤣🤣🤣 这都几年过去了
我觉得图应该是这样画的,相同颜色的区域做标准化
仨方块代表Batch_size = 3
每个方块内,前后向代表channel维度,左右代表宽,上下代表高
也就是同Batch, xy位置相同的特征像素,不同的channel里做标准化
接下来代码验证一下,只需要在 Channel 维度做一下标准化
import torch
import torch.nn as nn# torch.manual_seed(1107)
torch.manual_seed(1942)# 假设x的形状是(B, W, H, C)
x = torch.rand(32, 256, 256, 128) # 添加一个维度以匹配四维输入m = nn.LayerNorm(128, elementwise_affine=False)
m.eval() # 设置为评估模式y = m(x)# 手动计算LayerNorm
x_mean = x.mean(dim=-1, keepdim=True)
x_var = x.var(dim=-1, keepdim=True, unbiased=False)
eps = m.epsy_manual = (x - x_mean) / ((x_var + eps).sqrt())print("结果是否一致:", torch.allclose(y, y_manual, atol=1e-6))
(大佬们路过,教我一下🥲🥲🥲)
这篇关于LayerNorm的图是不是画错了的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!