16 - nn.Conv2d的原理以及三路分支残差block的算子融合实现

2023-11-02 04:38

本文主要是介绍16 - nn.Conv2d的原理以及三路分支残差block的算子融合实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 1. R-drop
    • 1.1 R-drop 原理
  • 2. 常见函数
    • 2.1 torch常见API
  • 3. Resnet 算子融合
    • 3.1 目标
    • 3.2 步骤
    • 3.3 代码
    • 3.4 小结

1. R-drop

  • 论文链接:R-Drop: Regularized Dropout for Neural Networks

1.1 R-drop 原理

在这里插入图片描述

  • 算法:
    在这里插入图片描述
  • 损失函数:
    在这里插入图片描述
  • 贡献
    在这里插入图片描述

2. 常见函数

2.1 torch常见API

  • torch.functional.pad
    在这里插入图片描述
import torch
from torch.nn import functional as Fa = torch.ones(2, 3, 4, 5)
paddings_1 = (1, 2, 3, 4, 5, 6, 7, 8)
paddings_2 = (10, 9, 8, 7, 6, 5, 4, 3)
b = F.pad(a, paddings_1)
c = F.pad(a,paddings_2)
print(f"a.shape={a.shape}")
print(f"b.shape={b.shape}")
print(f"c.shape={c.shape}")
a.shape=torch.Size([2, 3, 4, 5])
b.shape=torch.Size([17, 14, 11, 8])
c.shape=torch.Size([9, 14, 19, 24])
  • torch.nn.Conv2d (padding=“same”)
    以前我们设置二维卷积的时候需要手动设置padding 的值,特别的麻烦,现在方便了,直接设置padding=“same”,那么可以保证,输入张量经过卷积运算后,输出矩阵的高宽前后保持一致;
import torch
from torch import nnmy_conv2d = nn.Conv2d(in_channels=3,out_channels=5,kernel_size=3,padding="same")
my_input = torch.rand(2,3,10,20)
my_output = my_conv2d(my_input)
print(f"my_conv2d={my_conv2d}")
print(f"my_input.shape={my_input.shape}")
print(f"my_output.shape={my_output.shape}")
my_conv2d=Conv2d(3, 5, kernel_size=(3, 3), stride=(1, 1), padding=same)
my_input.shape=torch.Size([2, 3, 10, 20])
my_output.shape=torch.Size([2, 5, 10, 20])
  • torch.isclose()
torch.isclose(input, other, rtol=1e-05, atol=1e-08, equal_nan=False) → Tensor

返回一个新的张量,其布尔元素表示输入的每个元素是否“接近”other的相应元素。亲密度定义为:
在这里插入图片描述
如果张量a和张量b中的数据的差值在一定的范围内,那么就返回True,否则返回False

print(torch.isclose(torch.Tensor([1.,2.,3.]),torch.Tensor([1.+1e-10,3.,3.])))
# tensor([ True, False,  True])
  • torch.all(input)
    torch.all(input):测试输入中的所有元素的值是否为True。如果所有的值为True,则返回True,否则返回False
# import library
import torch# define the tensor a , b
a = torch.Tensor([1,0,2,0])
b = torch.Tensor([1,2,3,4,5])# convert the values into boolean type
b_bool = b.bool()
a_bool = a.bool()# if all the values in tensor a_all is true ,it return the final answer for True
# if just including the one False value in tensor a_all,it return the final answer for False
a_all = torch.all(a_bool)
b_all = torch.all(b_bool)
print(f"a={a}")
print(f"a_bool={a_bool}")
print(f"a_all={a_all}")
print("*"*50)
print(f"b={b}")
print(f"b_bool={b_bool}")
print(f"b_all={b_all}")
a=tensor([1., 0., 2., 0.])
a_bool=tensor([ True, False,  True, False])
a_all=False
**************************************************
b=tensor([1., 2., 3., 4., 5.])
b_bool=tensor([True, True, True, True, True])
b_all=True
  • torch.equal()&torch.eq(a,b)
    torch.eq(a,b):计算张量a和b中每个对应位置的值是否相等,并返回每个位置的True 和 False
    torch.equal(a,b):比较张量a,b在形状和值是否相等,返回整体的True 和False
# import the library
import torch# define the variable tensor a and b
a = torch.Tensor([[1,2,3],[4,5,6]])
b = torch.Tensor([[1,4,2],[2,3,6]])# compare the values of the each elements in tensor a and b is whether equal
c_eq = torch.eq(a, b)# just compare the tensor a and b is whether equal
d_equal = torch.equal(a,b)
print(f"a={a}")print(f"b={b}")print(f"c_eq={c_eq}")print(f"d_equal={d_equal}")
a=tensor([[1., 2., 3.],[4., 5., 6.]])
b=tensor([[1., 4., 2.],[2., 3., 6.]])
c_eq=tensor([[ True, False, False],[False, False,  True]])
d_equal=False

3. Resnet 算子融合

3.1 目标

将Resnet模块中
r e s u l t 1 = c o n v 3 × 3 + c o n v 1 × 1 + x result_1=conv3\times3+conv1\times1+x result1=conv3×3+conv1×1+x
在这里插入图片描述

转换成:
r e s u l t 2 = c o n v 3 × 3 + c o n v 3 × 3 + c o n v 3 × 3 result_2=conv3\times3+conv3\times3+conv3\times3 result2=conv3×3+conv3×3+conv3×3
在这里插入图片描述
最后我们在使用的时候用一个3×3卷积表示即可得到result1的同等效果,达到算子融合的目的
在这里插入图片描述

在这里插入图片描述

3.2 步骤

  • 将1×1卷积改造成3×3卷积conv_2d_for_pointwise
  • 将x本身改造成3×3卷积conv_2d_for_identity
  • 创建一个新的融合3×3卷积conv_2d_for_fusion
  • conv_2d_for_pointwiseconv_2d_for_identity和本来就有的3×3卷积conv2d权重和偏置相加后赋值给conv_2d_for_fusion
  • conv_2d_for_fusion.weight = conv2d.weight + conv_2d_for_pointwise.weight + conv_2d_for_identity.weight
  • conv_2d_for_fusion.bias = conv2d.bias + conv_2d_for_pointwise.bias + conv_2d_for_identity.bias
  • 这样我们就得到一个新的卷积conv_2d_for_fusion;它满足了resnet的所有需求,而且更快

3.3 代码

import torch
from torch import nn
import torch.nn.functional as F
import timein_channels = 2
ou_channels = 2
kernel_size = 3
w = 9
h = 9
t1 = time.time()
# 方法1:原生写法
x = torch.ones(1, in_channels, w, h)
conv_2d = nn.Conv2d(in_channels, ou_channels, kernel_size, padding="same")
conv_2d_pointwise = nn.Conv2d(in_channels, ou_channels, 1)result1 = conv_2d(x) + conv_2d_pointwise(x) + x
t2 = time.time()
# 方法2:算子融合
# 把 point_wise 卷积核 x 本身都携程 3*3 的卷积
# 最终把三个卷积写成一个卷积实现算子融合# step 1: 将 1x1的卷积转换成 3x3 的卷积
# conv_2d_pointwise.weight.shape = (2,2,1,1) 通过填充变成 (2,2,3,3)pointwise_to_conv_weight = F.pad(conv_2d_pointwise.weight, [1, 1, 1, 1, 0, 0, 0, 0])
conv_2d_for_pointwise = nn.Conv2d(in_channels, ou_channels, kernel_size, padding="same")
conv_2d_for_pointwise.weight = nn.Parameter(pointwise_to_conv_weight)
conv_2d_for_pointwise.bias = nn.Parameter(conv_2d_pointwise.bias)# step 2: 将 x 本身转换成 3x3 的卷积
#       x 经过 3x3 的卷积conv_2d_for_identity还是能够保证值不变
# 为了保证 x 在转换过程中的值不变,需要满足如下两个条件
# 1. 3x3的卷积不能在像素与像素之间具有关联性
#    需要一个 3x3 矩阵,中心为1,其他为0
# 2. 3x3的卷积不能在通道与通道之间具有关联性
#    需要通道上面[中间1矩阵,全0矩阵,全0矩阵,中间1矩阵];这样通道间就没关联了
#    卷积的形状为:(2,2,3,3);我们需要定义卷积的weights和bias来实现自定义卷积
#conv_2d_for_identity = nn.Conv2d(in_channels, ou_channels, kernel_size, padding="same")
zeros = torch.unsqueeze(torch.zeros(kernel_size, kernel_size), 0)
stars = torch.unsqueeze(F.pad(torch.ones((1, 1)), [1, 1, 1, 1]), 0)
zeros_stars = torch.unsqueeze(torch.cat([zeros, stars], 0), 0)
stars_zeros = torch.unsqueeze(torch.cat([stars, zeros], 0), 0)
conv_2d_for_identity_weight = torch.cat([zeros_stars, stars_zeros], dim=0)
conv_2d_for_identity_bias = torch.zeros([ou_channels])
conv_2d_for_identity.weight = nn.Parameter(conv_2d_for_identity_weight)
conv_2d_for_identity.bias = nn.Parameter(conv_2d_for_identity_bias)result2 = conv_2d(x) + conv_2d_for_pointwise(x) + conv_2d_for_identity(x)# result2 = conv_2d_for_pointwise(x)
# result2 = conv_2d_for_identity(x)
# print(f"torch.all(torch.isclose(result1,result2))\t=\t{torch.all(torch.isclose(result1,result2))}")
# print(f"zeros={zeros}")
# print(f"zeros.shape={zeros.shape}")
# print(f"stars.shape={stars.shape}")
# print(f"stars={stars}")
# print(f"zeros_stars={zeros_stars}")
# print(f"zeros_stars.shape={zeros_stars.shape}")# step 3: 将改造后的矩阵conv_2d(x);conv_2d_for_pointwise(x);conv_2d_for_identity(x)进行融合conv_2d_for_fusion = nn.Conv2d(in_channels, ou_channels, kernel_size, padding="same")
conv_2d_for_fusion.weight = nn.Parameter(conv_2d.weight.data + conv_2d_for_pointwise.weight.data + conv_2d_for_identity.weight.data)
conv_2d_for_fusion.bias = nn.Parameter(conv_2d.bias.data + conv_2d_for_pointwise.bias.data + conv_2d_for_identity.bias.data)result3 = conv_2d_for_fusion(x)
t3 = time.time()# print(f"torch.all(torch.isclose(result1,result3))\t=\t{torch.all(torch.isclose(result1,result3))}")print(f"原生卷积 time = {1000*(t2-t1)}ms")
print(f"融合卷积 time = {1000*(t3-t2)}ms")

结果:

原生卷积 time = 1.9557476043701172ms
融合卷积 time = 0.9968280792236328ms

3.4 小结

多次实验,我们在不改变值的情况下,我们发现,经过算子融合的网络即使在python这样的语法下,也能在运行速度上提高2倍;其主要思想还是像地铁思想样,我们从A点到B点,如果有三个人甲,乙,丙 ;他们如果单独进行运动,那么时间就会长,如果我们将甲乙丙三个人打包到地铁上,让他们搭载地铁,那么他们一起到达B点的时间就会缩短。

这篇关于16 - nn.Conv2d的原理以及三路分支残差block的算子融合实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/328167

相关文章

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

深入探索协同过滤:从原理到推荐模块案例

文章目录 前言一、协同过滤1. 基于用户的协同过滤(UserCF)2. 基于物品的协同过滤(ItemCF)3. 相似度计算方法 二、相似度计算方法1. 欧氏距离2. 皮尔逊相关系数3. 杰卡德相似系数4. 余弦相似度 三、推荐模块案例1.基于文章的协同过滤推荐功能2.基于用户的协同过滤推荐功能 前言     在信息过载的时代,推荐系统成为连接用户与内容的桥梁。本文聚焦于

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

hdu4407(容斥原理)

题意:给一串数字1,2,......n,两个操作:1、修改第k个数字,2、查询区间[l,r]中与n互质的数之和。 解题思路:咱一看,像线段树,但是如果用线段树做,那么每个区间一定要记录所有的素因子,这样会超内存。然后我就做不来了。后来看了题解,原来是用容斥原理来做的。还记得这道题目吗?求区间[1,r]中与p互质的数的个数,如果不会的话就先去做那题吧。现在这题是求区间[l,r]中与n互质的数的和

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time

Android实现任意版本设置默认的锁屏壁纸和桌面壁纸(两张壁纸可不一致)

客户有些需求需要设置默认壁纸和锁屏壁纸  在默认情况下 这两个壁纸是相同的  如果需要默认的锁屏壁纸和桌面壁纸不一样 需要额外修改 Android13实现 替换默认桌面壁纸: 将图片文件替换frameworks/base/core/res/res/drawable-nodpi/default_wallpaper.*  (注意不能是bmp格式) 替换默认锁屏壁纸: 将图片资源放入vendo

C#实战|大乐透选号器[6]:实现实时显示已选择的红蓝球数量

哈喽,你好啊,我是雷工。 关于大乐透选号器在前面已经记录了5篇笔记,这是第6篇; 接下来实现实时显示当前选中红球数量,蓝球数量; 以下为练习笔记。 01 效果演示 当选择和取消选择红球或蓝球时,在对应的位置显示实时已选择的红球、蓝球的数量; 02 标签名称 分别设置Label标签名称为:lblRedCount、lblBlueCount

Kubernetes PodSecurityPolicy:PSP能实现的5种主要安全策略

Kubernetes PodSecurityPolicy:PSP能实现的5种主要安全策略 1. 特权模式限制2. 宿主机资源隔离3. 用户和组管理4. 权限提升控制5. SELinux配置 💖The Begin💖点点关注,收藏不迷路💖 Kubernetes的PodSecurityPolicy(PSP)是一个关键的安全特性,它在Pod创建之前实施安全策略,确保P

工厂ERP管理系统实现源码(JAVA)

工厂进销存管理系统是一个集采购管理、仓库管理、生产管理和销售管理于一体的综合解决方案。该系统旨在帮助企业优化流程、提高效率、降低成本,并实时掌握各环节的运营状况。 在采购管理方面,系统能够处理采购订单、供应商管理和采购入库等流程,确保采购过程的透明和高效。仓库管理方面,实现库存的精准管理,包括入库、出库、盘点等操作,确保库存数据的准确性和实时性。 生产管理模块则涵盖了生产计划制定、物料需求计划、