常见的几种填充方式:ZeroPad2d/ReflectionPad2d...(Pytorch)

2023-10-18 23:10

本文主要是介绍常见的几种填充方式:ZeroPad2d/ReflectionPad2d...(Pytorch),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

填充方式

  • 一、ZeroPad2d:全零填充
    • 1)调用方式
    • 2)实例
  • 二、ReflectionPad1d/ReflectionPad2d:反射填充
  • 三、ConstantPad1d/ConstantPad2d:常量填充
    • 1.ConstantPad1d
      • 1)调用方式
      • 2)实例
    • 2.ConstantPad2d
      • 1)调用方式
      • 2)实例
  • 四、ReplicationPad1d/ReplicationPad2d:复制填充
    • 1.ReplicationPad1d
      • 1)调用方式
      • 2)实例
    • 2.ReplicationPad2d
      • 1)调用方式
      • 2)实例
  • 五、注意事项

一、ZeroPad2d:全零填充

在搭建神经网络时,通常为了保证卷积操作前后的特征大小保持不变,会使用全零填充的方式进行卷积层padding参数的设置。此处,ZeroPad2d作为独立的网络层来调用,二者填充原理一致。

1)调用方式

  • 通过在输入特征的左、右、上、下四个边界添加足够的零来完成填充;
  • padding参数的设置决定边界处填充零的数量,可设置为整数或者4元组;
  • padding为整数表示输入的左、右、上、下填充相同数量的零, padding为4元组表示输入的左、右、上、下按元组的元素顺序填充指定数量的零;
  • 输入形状为:(N,C,H_in,W_in)或(C,H_in,W_in);
  • 输出形状为:(N,C,H_out,W_out)或(C,H_out,W_out);其中H_out=H_in+pad_top+pad_bottom;W_out=W_in+pad_left+pad_right;
torch.nn.ZeroPad2d(padding)

2)实例

注意:无论padding为整数还是元组,实际填充是严格按照左、右、上、下顺序执行
(1)padding为整数:此时在输入的所有边界均填充相同大小的零。

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=1
out=nn.ZeroPad2d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:

padding=1,out: tensor([[[[0., 0., 0., 0., 0., 0., 0.],[0., 8., 3., 6., 2., 7., 0.],[0., 0., 8., 4., 9., 3., 0.],[0., 0., 0., 0., 0., 0., 0.]],[[0., 0., 0., 0., 0., 0., 0.],[0., 3., 9., 6., 2., 7., 0.],[0., 7., 8., 4., 6., 2., 0.],[0., 0., 0., 0., 0., 0., 0.]],[[0., 0., 0., 0., 0., 0., 0.],[0., 1., 9., 0., 1., 4., 0.],[0., 7., 8., 1., 0., 3., 0.],[0., 0., 0., 0., 0., 0., 0.]]]])
torch.Size([1, 3, 4, 7])

操作在H,W边界上进行,按照左、右、上、下顺序(①->②->③->④)依次填充提前设置的padding大小的零。比如此处设置padding为1,则表示需在输入特征的左右边界分别填充1列零,上下边界分别填充一行零。可看到在输入中H_in=2,W_in=5,而输出中为H_out=2+1+1=4,W_out=5+1+1=7。
在这里插入图片描述

(2)padding为4元组:padding=(pad_left,pad_right,pad_top,pad_bottom),此时在输入的边界填充padding指定大小的零。

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=(2,2,1,1)
out=nn.ZeroPad2d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:

padding=(2, 2, 1, 1),out: tensor([[[[0., 0., 0., 0., 0., 0., 0., 0., 0.],[0., 0., 8., 3., 6., 2., 7., 0., 0.],[0., 0., 0., 8., 4., 9., 3., 0., 0.],[0., 0., 0., 0., 0., 0., 0., 0., 0.]],[[0., 0., 0., 0., 0., 0., 0., 0., 0.],[0., 0., 3., 9., 6., 2., 7., 0., 0.],[0., 0., 7., 8., 4., 6., 2., 0., 0.],[0., 0., 0., 0., 0., 0., 0., 0., 0.]],[[0., 0., 0., 0., 0., 0., 0., 0., 0.],[0., 0., 1., 9., 0., 1., 4., 0., 0.],[0., 0., 7., 8., 1., 0., 3., 0., 0.],[0., 0., 0., 0., 0., 0., 0., 0., 0.]]]])
torch.Size([1, 3, 4, 9])

操作在H,W边界上进行,按照左、右、上、下顺序(①->②->③->④)依次填充提前设置的padding大小的零。比如此处设置padding为(2, 2, 1, 1),则表示需在输入特征的左右边界分别填充两列零,上下边界分别填充一行零。可看到在输入中H_in=2,W_in=5,而输出中为H_out=2+1+1=4,W_out=5+2+2=9。
在这里插入图片描述

二、ReflectionPad1d/ReflectionPad2d:反射填充

详见:https://blog.csdn.net/qq_43665602/article/details/126593617

三、ConstantPad1d/ConstantPad2d:常量填充

1.ConstantPad1d

可按照全零填充的方法去理解,只不过此时用来填充的数字变成自定义常量,而不是0。

1)调用方式

  1. 使用常量值填充输入向量的边界(左、右边界);
  2. padding可设为整数或者2元组;
  3. value为设定用来填充的常量;
  4. 输入形状:(N,C,W_in)或(C,W_in);
  5. 输出形状:(N,C,W_out)或(C,W_out);其中W_out=W_in+pad_left+pad_right;
torch.nn.ConstantPad1d(padding, value)

2)实例

(1)padding为整数

inp=torch.randint(10,size=(2,5))
print(inp.shape) 
print("inp:",inp)
pad=1
value=10
out=nn.ConstantPad1d(padding=pad,value=value)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:
可看到此时,该函数分别在输入向量左右两边填充了1列10。

torch.Size([2, 5])
inp: tensor([[5, 5, 6, 6, 1],[8, 3, 2, 3, 1]])
padding=1,out: tensor([[10,  5,  5,  6,  6,  1, 10],[10,  8,  3,  2,  3,  1, 10]])
torch.Size([2, 7])

(2)padding为2元组:padding=(pad_left,pad_right)

inp=torch.tensor([[5, 5, 6, 6, 1],[8, 3, 2, 3, 1]])
# print(inp.shape)
# print("inp:",inp)
pad=(1,2)
value=10
out=nn.ConstantPad1d(padding=pad,value=value)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:
可看到此时,该函数分别在输入向量左右两边填充了1、2列10.

padding=(1, 2),out: tensor([[10,  5,  5,  6,  6,  1, 10, 10],[10,  8,  3,  2,  3,  1, 10, 10]])
torch.Size([2, 8])

2.ConstantPad2d

使用常量填充向量边界的方法与全零填充相比,区别在于:二维全零填充是使用0填充,而二维常量填充是使用自定义的value值进行填充。当value=0时,常量填充与全零填充等价。

1)调用方式

  1. 使用常量值填充输入向量的边界(左、右、上、下边界);
  2. padding可设为整数或者4元组;
  3. value为设定用来填充的常量;
  4. 输入形状:(N,C,H_in,W_in)或(C,H_in,W_in);
  5. 输出形状:(N,C,H_out,W_out)或(C,H_out,W_out);其中H_out=H_in+pad_top+pad_bottom;W_out=W_in+pad_left+pad_right;
torch.nn.ConstantPad2d(padding, value)

2)实例

(1)padding为整数

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=1
value=10
out=nn.ConstantPad2d(padding=pad,value=value)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:
当padding为整数时,输入按照左右上下的顺序,依次对向量使用自定义value值进行padding大小的填充。

padding=1,out: tensor([[[[10., 10., 10., 10., 10., 10., 10.],[10.,  8.,  3.,  6.,  2.,  7., 10.],[10.,  0.,  8.,  4.,  9.,  3., 10.],[10., 10., 10., 10., 10., 10., 10.]],[[10., 10., 10., 10., 10., 10., 10.],[10.,  3.,  9.,  6.,  2.,  7., 10.],[10.,  7.,  8.,  4.,  6.,  2., 10.],[10., 10., 10., 10., 10., 10., 10.]],[[10., 10., 10., 10., 10., 10., 10.],[10.,  1.,  9.,  0.,  1.,  4., 10.],[10.,  7.,  8.,  1.,  0.,  3., 10.],[10., 10., 10., 10., 10., 10., 10.]]]])
torch.Size([1, 3, 4, 7])

(2)padding为4元组:padding=(pad_left,pad_right,pad_top,pad_bottom)

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=(1,2,3,4)
value=10
out=nn.ConstantPad2d(padding=pad,value=value)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:
当padding为4元组时,输入按照左右上下的顺序,依次对向量使用自定义value值进行填充。

padding=(1, 2, 3, 4),out: tensor([[[[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10.,  8.,  3.,  6.,  2.,  7., 10., 10.],[10.,  0.,  8.,  4.,  9.,  3., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.]],[[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10.,  3.,  9.,  6.,  2.,  7., 10., 10.],[10.,  7.,  8.,  4.,  6.,  2., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.]],[[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10.,  1.,  9.,  0.,  1.,  4., 10., 10.],[10.,  7.,  8.,  1.,  0.,  3., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.],[10., 10., 10., 10., 10., 10., 10., 10.]]]])
torch.Size([1, 3, 9, 8])

四、ReplicationPad1d/ReplicationPad2d:复制填充

复制填充的方式,根据设定的padding,分别对输入向量的边界进行复制,并填充在对应的边界

1.ReplicationPad1d

1)调用方式

  1. 使用padding大小的边界复制品,填充输入向量的边界(左、右边界);
  2. padding可为整数或者2元组;
  3. 输入形状:(N,C,W_in);
  4. 输出形状:(N,C,W_out);其中W_out=W_in+pad_left+pad_right;
torch.nn.ReplicationPad1d(padding)

2)实例

(1)padding为整数

inp=torch.tensor([[[2., 8., 4., 6.],[0., 1., 8., 6.],[7., 5., 5., 6.]],[[3., 2., 0., 6.],[0., 3., 3., 0.],[5., 1., 3., 4.]]])  # torch.Size([2, 3, 4])
print(inp.shape)
print("inp:",inp)
pad=3
out=nn.ReplicationPad1d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:padding为整数意味着在输入向量的所有边界填充该数量大小的元素。此处padding=3,表示在输入向量的左、右边界均填充3个对应边界的复制品。

padding=3,out: tensor([[[2., 2., 2., 2., 8., 4., 6., 6., 6., 6.],[0., 0., 0., 0., 1., 8., 6., 6., 6., 6.],[7., 7., 7., 7., 5., 5., 6., 6., 6., 6.]],[[3., 3., 3., 3., 2., 0., 6., 6., 6., 6.],[0., 0., 0., 0., 3., 3., 0., 0., 0., 0.],[5., 5., 5., 5., 1., 3., 4., 4., 4., 4.]]])
torch.Size([2, 3, 10])

(2)padding为2元组:padding=(pad_left,pad_right)

inp=torch.tensor([[[2., 8., 4., 6.],[0., 1., 8., 6.],[7., 5., 5., 6.]],[[3., 2., 0., 6.],[0., 3., 3., 0.],[5., 1., 3., 4.]]])  # torch.Size([2, 3, 4])
print(inp.shape)
print("inp:",inp)
pad=(1,2)
out=nn.ReplicationPad1d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:图中可以看到,红框表示原始输入向量,蓝框表示填充元素,绿框分别表示输入向量的左、右边界。最后进行填充时,左面填充pad_left=1个左边界复制品,而右面填充pad_right=2个右边界复制品。

padding=(1, 2),out: tensor([[[2., 2., 8., 4., 6., 6., 6.],[0., 0., 1., 8., 6., 6., 6.],[7., 7., 5., 5., 6., 6., 6.]],[[3., 3., 2., 0., 6., 6., 6.],[0., 0., 3., 3., 0., 0., 0.],[5., 5., 1., 3., 4., 4., 4.]]])
torch.Size([2, 3, 7])

在这里插入图片描述

2.ReplicationPad2d

1)调用方式

  1. 使用padding指定大小的边界复制品,填充输入向量的边界(左、右、上、下边界);
  2. padding可设为整数或者4元组;
  3. 输入形状:(N,C,H_in,W_in);
  4. 输出形状:(N,C,H_out,W_out);其中H_out=H_in+pad_top+pad_bottom;W_out=W_in+pad_left+pad_right;
torch.nn.ReplicationPad2d(padding)

2)实例

(1)padding为整数

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=1
out=nn.ReplicationPad2d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果分析:与ReflectionPad1d的填充方式区别在于,此时需要填充的边界变成左、右、上、下四个。

padding=1,out: tensor([[[[8., 8., 3., 6., 2., 7., 7.],[8., 8., 3., 6., 2., 7., 7.],[0., 0., 8., 4., 9., 3., 3.],[0., 0., 8., 4., 9., 3., 3.]],[[3., 3., 9., 6., 2., 7., 7.],[3., 3., 9., 6., 2., 7., 7.],[7., 7., 8., 4., 6., 2., 2.],[7., 7., 8., 4., 6., 2., 2.]],[[1., 1., 9., 0., 1., 4., 4.],[1., 1., 9., 0., 1., 4., 4.],[7., 7., 8., 1., 0., 3., 3.],[7., 7., 8., 1., 0., 3., 3.]]]])
torch.Size([1, 3, 4, 7])

(2)padding为4元组:padding=(pad_left,pad_right,pad_top,pad_bottom)

inp=torch.tensor([[[[8., 3., 6., 2., 7.],[0., 8., 4., 9., 3.]],[[3., 9., 6., 2., 7.],[7., 8., 4., 6., 2.]],[[1., 9., 0., 1., 4.],[7., 8., 1., 0., 3.]]]])
# print(inp.shape)  # torch.Size([1, 3, 2, 5])
# print("inp:",inp)
pad=(1,2,3,4)
out=nn.ReplicationPad2d(padding=pad)(inp)
print("padding={},out:".format(pad),out)
print(out.shape)

结果:可看到原始输入的左、右、上、下四个边界依次填充pad_left=1,pad_right=2,pad_top=3,pad_bottom=4大小的边界复制品。

padding=(1, 2, 3, 4),out: tensor([[[[8., 8., 3., 6., 2., 7., 7., 7.],[8., 8., 3., 6., 2., 7., 7., 7.],[8., 8., 3., 6., 2., 7., 7., 7.],[8., 8., 3., 6., 2., 7., 7., 7.],[0., 0., 8., 4., 9., 3., 3., 3.],[0., 0., 8., 4., 9., 3., 3., 3.],[0., 0., 8., 4., 9., 3., 3., 3.],[0., 0., 8., 4., 9., 3., 3., 3.],[0., 0., 8., 4., 9., 3., 3., 3.]],[[3., 3., 9., 6., 2., 7., 7., 7.],[3., 3., 9., 6., 2., 7., 7., 7.],[3., 3., 9., 6., 2., 7., 7., 7.],[3., 3., 9., 6., 2., 7., 7., 7.],[7., 7., 8., 4., 6., 2., 2., 2.],[7., 7., 8., 4., 6., 2., 2., 2.],[7., 7., 8., 4., 6., 2., 2., 2.],[7., 7., 8., 4., 6., 2., 2., 2.],[7., 7., 8., 4., 6., 2., 2., 2.]],[[1., 1., 9., 0., 1., 4., 4., 4.],[1., 1., 9., 0., 1., 4., 4., 4.],[1., 1., 9., 0., 1., 4., 4., 4.],[1., 1., 9., 0., 1., 4., 4., 4.],[7., 7., 8., 1., 0., 3., 3., 3.],[7., 7., 8., 1., 0., 3., 3., 3.],[7., 7., 8., 1., 0., 3., 3., 3.],[7., 7., 8., 1., 0., 3., 3., 3.],[7., 7., 8., 1., 0., 3., 3., 3.]]]])
torch.Size([1, 3, 9, 8])

五、注意事项

  1. padding可设置整数或元组两种,本质上padding设置为整数与padding设置为所有元素都为该整数的元组等价;
  2. 对于一维填充方式(指函数名后缀是1d),设定padding为整数或2元组时,表示在向量左、右边界处进行填充,并且严格按照左、右顺序进行填充;对于二维填充方式(指函数名后缀是2d),设定padding为整数或4元组时,表示在向量左、右、上、下边界处进行填充,并且严格按照左、右、上、下的顺序进行填充;
  3. 虽然官网对于一维填充和二维填充方式的输入或输出形状均给出两种方式,但对于一维复制填充:内部实现仅支持输入形状为(N,C,W_in),而二维复制填充:内部实现仅支持输入形状为(N,C,H_in,W_in)。

这篇关于常见的几种填充方式:ZeroPad2d/ReflectionPad2d...(Pytorch)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/235696

相关文章

Debezium 与 Apache Kafka 的集成方式步骤详解

《Debezium与ApacheKafka的集成方式步骤详解》本文详细介绍了如何将Debezium与ApacheKafka集成,包括集成概述、步骤、注意事项等,通过KafkaConnect,D... 目录一、集成概述二、集成步骤1. 准备 Kafka 环境2. 配置 Kafka Connect3. 安装 D

C++初始化数组的几种常见方法(简单易懂)

《C++初始化数组的几种常见方法(简单易懂)》本文介绍了C++中数组的初始化方法,包括一维数组和二维数组的初始化,以及用new动态初始化数组,在C++11及以上版本中,还提供了使用std::array... 目录1、初始化一维数组1.1、使用列表初始化(推荐方式)1.2、初始化部分列表1.3、使用std::

Springboot中分析SQL性能的两种方式详解

《Springboot中分析SQL性能的两种方式详解》文章介绍了SQL性能分析的两种方式:MyBatis-Plus性能分析插件和p6spy框架,MyBatis-Plus插件配置简单,适用于开发和测试环... 目录SQL性能分析的两种方式:功能介绍实现方式:实现步骤:SQL性能分析的两种方式:功能介绍记录

SQL 中多表查询的常见连接方式详解

《SQL中多表查询的常见连接方式详解》本文介绍SQL中多表查询的常见连接方式,包括内连接(INNERJOIN)、左连接(LEFTJOIN)、右连接(RIGHTJOIN)、全外连接(FULLOUTER... 目录一、连接类型图表(ASCII 形式)二、前置代码(创建示例表)三、连接方式代码示例1. 内连接(I

Python安装时常见报错以及解决方案

《Python安装时常见报错以及解决方案》:本文主要介绍在安装Python、配置环境变量、使用pip以及运行Python脚本时常见的错误及其解决方案,文中介绍的非常详细,需要的朋友可以参考下... 目录一、安装 python 时常见报错及解决方案(一)安装包下载失败(二)权限不足二、配置环境变量时常见报错及

Android里面的Service种类以及启动方式

《Android里面的Service种类以及启动方式》Android中的Service分为前台服务和后台服务,前台服务需要亮身份牌并显示通知,后台服务则有启动方式选择,包括startService和b... 目录一句话总结:一、Service 的两种类型:1. 前台服务(必须亮身份牌)2. 后台服务(偷偷干

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

最长公共子序列问题的深度分析与Java实现方式

《最长公共子序列问题的深度分析与Java实现方式》本文详细介绍了最长公共子序列(LCS)问题,包括其概念、暴力解法、动态规划解法,并提供了Java代码实现,暴力解法虽然简单,但在大数据处理中效率较低,... 目录最长公共子序列问题概述问题理解与示例分析暴力解法思路与示例代码动态规划解法DP 表的构建与意义动

JS 实现复制到剪贴板的几种方式小结

《JS实现复制到剪贴板的几种方式小结》本文主要介绍了JS实现复制到剪贴板的几种方式小结,包括ClipboardAPI和document.execCommand这两种方法,具有一定的参考价值,感兴趣的... 目录一、Clipboard API相关属性方法二、document.execCommand优点:缺点:

Python创建Excel的4种方式小结

《Python创建Excel的4种方式小结》这篇文章主要为大家详细介绍了Python中创建Excel的4种常见方式,文中的示例代码简洁易懂,具有一定的参考价值,感兴趣的小伙伴可以学习一下... 目录库的安装代码1——pandas代码2——openpyxl代码3——xlsxwriterwww.cppcns.c