常见的几种填充方式:ZeroPad2d/ReflectionPad2d...(Pytorch)

2023-10-18 23:10

本文主要是介绍常见的几种填充方式:ZeroPad2d/ReflectionPad2d...(Pytorch),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

填充方式

  • 一、ZeroPad2d:全零填充
    • 1)调用方式
    • 2)实例
  • 二、ReflectionPad1d/ReflectionPad2d:反射填充
  • 三、ConstantPad1d/ConstantPad2d:常量填充
    • 1.ConstantPad1d
      • 1)调用方式
      • 2)实例
    • 2.ConstantPad2d
      • 1)调用方式
      • 2)实例
  • 四、ReplicationPad1d/ReplicationPad2d:复制填充
    • 1.ReplicationPad1d
      • 1)调用方式
      • 2)实例
    • 2.ReplicationPad2d
      • 1)调用方式
      • 2)实例
  • 五、注意事项

一、ZeroPad2d:全零填充

在搭建神经网络时,通常为了保证卷积操作前后的特征大小保持不变,会使用全零填充的方式进行卷积层padding参数的设置。此处,ZeroPad2d作为独立的网络层来调用,二者填充原理一致。

1)调用方式

  • 通过在输入特征的左、右、上、下四个边界添加足够的零来完成填充;
  • padding参数的设置决定边界处填充零的数量,可设置为整数或者4元组;
  • padding为整数表示输入的左、右、上、下填充相同数量的零, padding为4元组表示输入的左、右、上、下按元组的元素顺序填充指定数量的零;
  • 输入形状为:(N,C,H_in,W_in)或(C,H_in,W_in);
  • 输出形状为:(N,C,H_out,W_out)或(C,H_out,W_out);其中H_out=H_in+pad_top+pad_bottom;W_out=W_in+pad_left+pad_right;
torch.nn.ZeroPad2d(padding)

2)实例

注意:无论padding为整数还是元组,实际填充是严格按照左、右、上、下顺序执行
(1)padding为整数:此时在输入的所有边界均填充相同大小的零。

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=1
out=nn.ZeroPad2d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:

padding=1,out: tensor([[[[0., 0., 0., 0., 0., 0., 0.],[0., 8., 3., 6., 2., 7., 0.],[0., 0., 8., 4., 9., 3., 0.],[0., 0., 0., 0., 0., 0., 0.]],[[0., 0., 0., 0., 0., 0., 0.],[0., 3., 9., 6., 2., 7., 0.],[0., 7., 8., 4., 6., 2., 0.],[0., 0., 0., 0., 0., 0., 0.]],[[0., 0., 0., 0., 0., 0., 0.],[0., 1., 9., 0., 1., 4., 0.],[0., 7., 8., 1., 0., 3., 0.],[0., 0., 0., 0., 0., 0., 0.]]]])
torch.Size([1, 3, 4, 7])

操作在H,W边界上进行,按照左、右、上、下顺序(①->②->③->④)依次填充提前设置的padding大小的零。比如此处设置padding为1,则表示需在输入特征的左右边界分别填充1列零,上下边界分别填充一行零。可看到在输入中H_in=2,W_in=5,而输出中为H_out=2+1+1=4,W_out=5+1+1=7。
在这里插入图片描述

(2)padding为4元组:padding=(pad_left,pad_right,pad_top,pad_bottom),此时在输入的边界填充padding指定大小的零。

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=(2,2,1,1)
out=nn.ZeroPad2d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:

padding=(2, 2, 1, 1),out: tensor([[[[0., 0., 0., 0., 0., 0., 0., 0., 0.],[0., 0., 8., 3., 6., 2., 7., 0., 0.],[0., 0., 0., 8., 4., 9., 3., 0., 0.],[0., 0., 0., 0., 0., 0., 0., 0., 0.]],[[0., 0., 0., 0., 0., 0., 0., 0., 0.],[0., 0., 3., 9., 6., 2., 7., 0., 0.],[0., 0., 7., 8., 4., 6., 2., 0., 0.],[0., 0., 0., 0., 0., 0., 0., 0., 0.]],[[0., 0., 0., 0., 0., 0., 0., 0., 0.],[0., 0., 1., 9., 0., 1., 4., 0., 0.],[0., 0., 7., 8., 1., 0., 3., 0., 0.],[0., 0., 0., 0., 0., 0., 0., 0., 0.]]]])
torch.Size([1, 3, 4, 9])

操作在H,W边界上进行,按照左、右、上、下顺序(①->②->③->④)依次填充提前设置的padding大小的零。比如此处设置padding为(2, 2, 1, 1),则表示需在输入特征的左右边界分别填充两列零,上下边界分别填充一行零。可看到在输入中H_in=2,W_in=5,而输出中为H_out=2+1+1=4,W_out=5+2+2=9。
在这里插入图片描述

二、ReflectionPad1d/ReflectionPad2d:反射填充

详见:https://blog.csdn.net/qq_43665602/article/details/126593617

三、ConstantPad1d/ConstantPad2d:常量填充

1.ConstantPad1d

可按照全零填充的方法去理解,只不过此时用来填充的数字变成自定义常量,而不是0。

1)调用方式

  1. 使用常量值填充输入向量的边界(左、右边界);
  2. padding可设为整数或者2元组;
  3. value为设定用来填充的常量;
  4. 输入形状:(N,C,W_in)或(C,W_in);
  5. 输出形状:(N,C,W_out)或(C,W_out);其中W_out=W_in+pad_left+pad_right;
torch.nn.ConstantPad1d(padding, value)

2)实例

(1)padding为整数

inp=torch.randint(10,size=(2,5))
print(inp.shape) 
print("inp:",inp)
pad=1
value=10
out=nn.ConstantPad1d(padding=pad,value=value)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:
可看到此时,该函数分别在输入向量左右两边填充了1列10。

torch.Size([2, 5])
inp: tensor([[5, 5, 6, 6, 1],[8, 3, 2, 3, 1]])
padding=1,out: tensor([[10,  5,  5,  6,  6,  1, 10],[10,  8,  3,  2,  3,  1, 10]])
torch.Size([2, 7])

(2)padding为2元组:padding=(pad_left,pad_right)

inp=torch.tensor([[5, 5, 6, 6, 1],[8, 3, 2, 3, 1]])
# print(inp.shape)
# print("inp:",inp)
pad=(1,2)
value=10
out=nn.ConstantPad1d(padding=pad,value=value)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:
可看到此时,该函数分别在输入向量左右两边填充了1、2列10.

padding=(1, 2),out: tensor([[10,  5,  5,  6,  6,  1, 10, 10],[10,  8,  3,  2,  3,  1, 10, 10]])
torch.Size([2, 8])

2.ConstantPad2d

使用常量填充向量边界的方法与全零填充相比,区别在于:二维全零填充是使用0填充,而二维常量填充是使用自定义的value值进行填充。当value=0时,常量填充与全零填充等价。

1)调用方式

  1. 使用常量值填充输入向量的边界(左、右、上、下边界);
  2. padding可设为整数或者4元组;
  3. value为设定用来填充的常量;
  4. 输入形状:(N,C,H_in,W_in)或(C,H_in,W_in);
  5. 输出形状:(N,C,H_out,W_out)或(C,H_out,W_out);其中H_out=H_in+pad_top+pad_bottom;W_out=W_in+pad_left+pad_right;
torch.nn.ConstantPad2d(padding, value)

2)实例

(1)padding为整数

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=1
value=10
out=nn.ConstantPad2d(padding=pad,value=value)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:
当padding为整数时,输入按照左右上下的顺序,依次对向量使用自定义value值进行padding大小的填充。

padding=1,out: tensor([[[[10., 10., 10., 10., 10., 10., 10.],[10.,  8.,  3.,  6.,  2.,  7., 10.],[10.,  0.,  8.,  4.,  9.,  3., 10.],[10., 10., 10., 10., 10., 10., 10.]],[[10., 10., 10., 10., 10., 10., 10.],[10.,  3.,  9.,  6.,  2.,  7., 10.],[10.,  7.,  8.,  4.,  6.,  2., 10.],[10., 10., 10., 10., 10., 10., 10.]],[[10., 10., 10., 10., 10., 10., 10.],[10.,  1.,  9.,  0.,  1.,  4., 10.],[10.,  7.,  8.,  1.,  0.,  3., 10.],[10., 10., 10., 10., 10., 10., 10.]]]])
torch.Size([1, 3, 4, 7])

(2)padding为4元组:padding=(pad_left,pad_right,pad_top,pad_bottom)

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=(1,2,3,4)
value=10
out=nn.ConstantPad2d(padding=pad,value=value)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:
当padding为4元组时,输入按照左右上下的顺序,依次对向量使用自定义value值进行填充。

padding=(1, 2, 3, 4),out: tensor([[[[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10.,  8.,  3.,  6.,  2.,  7., 10., 10.],[10.,  0.,  8.,  4.,  9.,  3., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.]],[[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10.,  3.,  9.,  6.,  2.,  7., 10., 10.],[10.,  7.,  8.,  4.,  6.,  2., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.]],[[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10.,  1.,  9.,  0.,  1.,  4., 10., 10.],[10.,  7.,  8.,  1.,  0.,  3., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.]]]])
torch.Size([1, 3, 9, 8])

四、ReplicationPad1d/ReplicationPad2d:复制填充

复制填充的方式,根据设定的padding,分别对输入向量的边界进行复制,并填充在对应的边界

1.ReplicationPad1d

1)调用方式

  1. 使用padding大小的边界复制品,填充输入向量的边界(左、右边界);
  2. padding可为整数或者2元组;
  3. 输入形状:(N,C,W_in);
  4. 输出形状:(N,C,W_out);其中W_out=W_in+pad_left+pad_right;
torch.nn.ReplicationPad1d(padding)

2)实例

(1)padding为整数

inp=torch.tensor([[[2., 8., 4., 6.],[0., 1., 8., 6.],[7., 5., 5., 6.]],[[3., 2., 0., 6.],[0., 3., 3., 0.],[5., 1., 3., 4.]]])  # torch.Size([2, 3, 4])
print(inp.shape)
print("inp:",inp)
pad=3
out=nn.ReplicationPad1d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:padding为整数意味着在输入向量的所有边界填充该数量大小的元素。此处padding=3,表示在输入向量的左、右边界均填充3个对应边界的复制品。

padding=3,out: tensor([[[2., 2., 2., 2., 8., 4., 6., 6., 6., 6.],[0., 0., 0., 0., 1., 8., 6., 6., 6., 6.],[7., 7., 7., 7., 5., 5., 6., 6., 6., 6.]],[[3., 3., 3., 3., 2., 0., 6., 6., 6., 6.],[0., 0., 0., 0., 3., 3., 0., 0., 0., 0.],[5., 5., 5., 5., 1., 3., 4., 4., 4., 4.]]])
torch.Size([2, 3, 10])

(2)padding为2元组:padding=(pad_left,pad_right)

inp=torch.tensor([[[2., 8., 4., 6.],[0., 1., 8., 6.],[7., 5., 5., 6.]],[[3., 2., 0., 6.],[0., 3., 3., 0.],[5., 1., 3., 4.]]])  # torch.Size([2, 3, 4])
print(inp.shape)
print("inp:",inp)
pad=(1,2)
out=nn.ReplicationPad1d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:图中可以看到,红框表示原始输入向量,蓝框表示填充元素,绿框分别表示输入向量的左、右边界。最后进行填充时,左面填充pad_left=1个左边界复制品,而右面填充pad_right=2个右边界复制品。

padding=(1, 2),out: tensor([[[2., 2., 8., 4., 6., 6., 6.],[0., 0., 1., 8., 6., 6., 6.],[7., 7., 5., 5., 6., 6., 6.]],[[3., 3., 2., 0., 6., 6., 6.],[0., 0., 3., 3., 0., 0., 0.],[5., 5., 1., 3., 4., 4., 4.]]])
torch.Size([2, 3, 7])

在这里插入图片描述

2.ReplicationPad2d

1)调用方式

  1. 使用padding指定大小的边界复制品,填充输入向量的边界(左、右、上、下边界);
  2. padding可设为整数或者4元组;
  3. 输入形状:(N,C,H_in,W_in);
  4. 输出形状:(N,C,H_out,W_out);其中H_out=H_in+pad_top+pad_bottom;W_out=W_in+pad_left+pad_right;
torch.nn.ReplicationPad2d(padding)

2)实例

(1)padding为整数

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=1
out=nn.ReplicationPad2d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:与ReflectionPad1d的填充方式区别在于,此时需要填充的边界变成左、右、上、下四个。

padding=1,out: tensor([[[[8., 8., 3., 6., 2., 7., 7.],[8., 8., 3., 6., 2., 7., 7.],[0., 0., 8., 4., 9., 3., 3.],[0., 0., 8., 4., 9., 3., 3.]],[[3., 3., 9., 6., 2., 7., 7.],[3., 3., 9., 6., 2., 7., 7.],[7., 7., 8., 4., 6., 2., 2.],[7., 7., 8., 4., 6., 2., 2.]],[[1., 1., 9., 0., 1., 4., 4.],[1., 1., 9., 0., 1., 4., 4.],[7., 7., 8., 1., 0., 3., 3.],[7., 7., 8., 1., 0., 3., 3.]]]])
torch.Size([1, 3, 4, 7])

(2)padding为4元组:padding=(pad_left,pad_right,pad_top,pad_bottom)

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=(1,2,3,4)
out=nn.ReplicationPad2d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果:可看到原始输入的左、右、上、下四个边界依次填充pad_left=1,pad_right=2,pad_top=3,pad_bottom=4大小的边界复制品。

padding=(1, 2, 3, 4),out: tensor([[[[8., 8., 3., 6., 2., 7., 7., 7.],[8., 8., 3., 6., 2., 7., 7., 7.],[8., 8., 3., 6., 2., 7., 7., 7.],[8., 8., 3., 6., 2., 7., 7., 7.],[0., 0., 8., 4., 9., 3., 3., 3.],[0., 0., 8., 4., 9., 3., 3., 3.],[0., 0., 8., 4., 9., 3., 3., 3.],[0., 0., 8., 4., 9., 3., 3., 3.],[0., 0., 8., 4., 9., 3., 3., 3.]],[[3., 3., 9., 6., 2., 7., 7., 7.],[3., 3., 9., 6., 2., 7., 7., 7.],[3., 3., 9., 6., 2., 7., 7., 7.],[3., 3., 9., 6., 2., 7., 7., 7.],[7., 7., 8., 4., 6., 2., 2., 2.],[7., 7., 8., 4., 6., 2., 2., 2.],[7., 7., 8., 4., 6., 2., 2., 2.],[7., 7., 8., 4., 6., 2., 2., 2.],[7., 7., 8., 4., 6., 2., 2., 2.]],[[1., 1., 9., 0., 1., 4., 4., 4.],[1., 1., 9., 0., 1., 4., 4., 4.],[1., 1., 9., 0., 1., 4., 4., 4.],[1., 1., 9., 0., 1., 4., 4., 4.],[7., 7., 8., 1., 0., 3., 3., 3.],[7., 7., 8., 1., 0., 3., 3., 3.],[7., 7., 8., 1., 0., 3., 3., 3.],[7., 7., 8., 1., 0., 3., 3., 3.],[7., 7., 8., 1., 0., 3., 3., 3.]]]])
torch.Size([1, 3, 9, 8])

五、注意事项

  1. padding可设置整数或元组两种,本质上padding设置为整数与padding设置为所有元素都为该整数的元组等价;
  2. 对于一维填充方式(指函数名后缀是1d),设定padding为整数或2元组时,表示在向量左、右边界处进行填充,并且严格按照左、右顺序进行填充;对于二维填充方式(指函数名后缀是2d),设定padding为整数或4元组时,表示在向量左、右、上、下边界处进行填充,并且严格按照左、右、上、下的顺序进行填充;
  3. 虽然官网对于一维填充和二维填充方式的输入或输出形状均给出两种方式,但对于一维复制填充:内部实现仅支持输入形状为(N,C,W_in),而二维复制填充:内部实现仅支持输入形状为(N,C,H_in,W_in)。

这篇关于常见的几种填充方式:ZeroPad2d/ReflectionPad2d...(Pytorch)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/235696

相关文章

C++ vector的常见用法超详细讲解

《C++vector的常见用法超详细讲解》:本文主要介绍C++vector的常见用法,包括C++中vector容器的定义、初始化方法、访问元素、常用函数及其时间复杂度,通过代码介绍的非常详细,... 目录1、vector的定义2、vector常用初始化方法1、使编程用花括号直接赋值2、使用圆括号赋值3、ve

Pytest多环境切换的常见方法介绍

《Pytest多环境切换的常见方法介绍》Pytest作为自动化测试的主力框架,如何实现本地、测试、预发、生产环境的灵活切换,本文总结了通过pytest框架实现自由环境切换的几种方法,大家可以根据需要进... 目录1.pytest-base-url2.hooks函数3.yml和fixture结论你是否也遇到过

Spring中配置ContextLoaderListener方式

《Spring中配置ContextLoaderListener方式》:本文主要介绍Spring中配置ContextLoaderListener方式,具有很好的参考价值,希望对大家有所帮助,如有错误... 目录Spring中配置ContextLoaderLishttp://www.chinasem.cntene

pytorch之torch.flatten()和torch.nn.Flatten()的用法

《pytorch之torch.flatten()和torch.nn.Flatten()的用法》:本文主要介绍pytorch之torch.flatten()和torch.nn.Flatten()的用... 目录torch.flatten()和torch.nn.Flatten()的用法下面举例说明总结torch

AJAX请求上传下载进度监控实现方式

《AJAX请求上传下载进度监控实现方式》在日常Web开发中,AJAX(AsynchronousJavaScriptandXML)被广泛用于异步请求数据,而无需刷新整个页面,:本文主要介绍AJAX请... 目录1. 前言2. 基于XMLHttpRequest的进度监控2.1 基础版文件上传监控2.2 增强版多

Docker镜像修改hosts及dockerfile修改hosts文件的实现方式

《Docker镜像修改hosts及dockerfile修改hosts文件的实现方式》:本文主要介绍Docker镜像修改hosts及dockerfile修改hosts文件的实现方式,具有很好的参考价... 目录docker镜像修改hosts及dockerfile修改hosts文件准备 dockerfile 文

C/C++错误信息处理的常见方法及函数

《C/C++错误信息处理的常见方法及函数》C/C++是两种广泛使用的编程语言,特别是在系统编程、嵌入式开发以及高性能计算领域,:本文主要介绍C/C++错误信息处理的常见方法及函数,文中通过代码介绍... 目录前言1. errno 和 perror()示例:2. strerror()示例:3. perror(

Linux中的计划任务(crontab)使用方式

《Linux中的计划任务(crontab)使用方式》:本文主要介绍Linux中的计划任务(crontab)使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、前言1、linux的起源与发展2、什么是计划任务(crontab)二、crontab基础1、cro

CSS去除a标签的下划线的几种方法

《CSS去除a标签的下划线的几种方法》本文给大家分享在CSS中,去除a标签(超链接)的下划线的几种方法,本文给大家介绍的非常详细,感兴趣的朋友一起看看吧... 在 css 中,去除a标签(超链接)的下划线主要有以下几种方法:使用text-decoration属性通用选择器设置:使用a标签选择器,将tex

Win11安装PostgreSQL数据库的两种方式详细步骤

《Win11安装PostgreSQL数据库的两种方式详细步骤》PostgreSQL是备受业界青睐的关系型数据库,尤其是在地理空间和移动领域,:本文主要介绍Win11安装PostgreSQL数据库的... 目录一、exe文件安装 (推荐)下载安装包1. 选择操作系统2. 跳转到EDB(PostgreSQL 的