Tensorflow反卷积(conv2d_transpose)实现原理+手写python代码实现反卷积(DeConv)

本文主要是介绍Tensorflow反卷积(conv2d_transpose)实现原理+手写python代码实现反卷积(DeConv),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1 反卷积原理

反卷积原理不太好用文字描述,这里直接以一个简单例子描述反卷积过程。

假设输入如下:

[[1,0,1],[0,2,1],[1,1,0]]

反卷积卷积核如下:

[[ 1, 0, 1],[-1, 1, 0],[ 0,-1, 0]]

现在通过stride=2来进行反卷积,使得尺寸由原来的3*3变为6*6.那么在Tensorflow框架中,反卷积的过程如下(不同框架在裁剪这步可能不一样):

反卷积实现例子

其实通过我绘制的这张图,就已经把原理讲的很清楚了。大致步奏就是,先填充0,然后进行卷积,卷积过程跟上一篇文章讲述的一致。最后一步还要进行裁剪。好了,原理讲完了,(#.#)....

2 代码实现

上一篇文章我们只针对了输出通道数为1进行代码实现,在这篇文章中,反卷积我们将输出通道设置为多个,这样更符合实际场景。

先定义输入和卷积核:

input_data=[[[1,0,1],[0,2,1],[1,1,0]],[[2,0,2],[0,1,0],[1,0,0]],[[1,1,1],[2,2,0],[1,1,1]],[[1,1,2],[1,0,1],[0,2,2]]]
weights_data=[ [[[ 1, 0, 1],[-1, 1, 0],[ 0,-1, 0]],[[-1, 0, 1],[ 0, 0, 1],[ 1, 1, 1]],[[ 0, 1, 1],[ 2, 0, 1],[ 1, 2, 1]], [[ 1, 1, 1],[ 0, 2, 1],[ 1, 0, 1]]],[[[ 1, 0, 2],[-2, 1, 1],[ 1,-1, 0]],[[-1, 0, 1],[-1, 2, 1],[ 1, 1, 1]],[[ 0, 0, 0],[ 2, 2, 1],[ 1,-1, 1]], [[ 2, 1, 1],[ 0,-1, 1],[ 1, 1, 1]]]  ]

上面定义的输入和卷积核,在接下的运算过程如下图所示:

执行过程

可以看到实际上,反卷积和卷积基本一致,差别在于,反卷积需要填充过程,并在最后一步需要裁剪。具体实现代码如下:

#根据输入map([h,w])和卷积核([k,k]),计算卷积后的feature map
import numpy as np
def compute_conv(fm,kernel):[h,w]=fm.shape [k,_]=kernel.shape r=int(k/2)#定义边界填充0后的mappadding_fm=np.zeros([h+2,w+2],np.float32)#保存计算结果rs=np.zeros([h,w],np.float32) #将输入在指定该区域赋值,即除了4个边界后,剩下的区域padding_fm[1:h+1,1:w+1]=fm #对每个点为中心的区域遍历for i in range(1,h+1):for j in range(1,w+1): #取出当前点为中心的k*k区域roi=padding_fm[i-r:i+r+1,j-r:j+r+1]#计算当前点的卷积,对k*k个点点乘后求和rs[i-1][j-1]=np.sum(roi*kernel)return rs#填充0
def fill_zeros(input):[c,h,w]=input.shapers=np.zeros([c,h*2+1,w*2+1],np.float32)for i in range(c):for j in range(h):for k in range(w): rs[i,2*j+1,2*k+1]=input[i,j,k] return rsdef my_deconv(input,weights):#weights shape=[out_c,in_c,h,w][out_c,in_c,h,w]=weights.shape   out_h=h*2out_w=w*2rs=[]for i in range(out_c):w=weights[i]tmp=np.zeros([out_h,out_w],np.float32)for j in range(in_c):conv=compute_conv(input[j],w[j])#注意裁剪,最后一行和最后一列去掉tmp=tmp+conv[0:out_h,0:out_w]rs.append(tmp)return rs def main():  input=np.asarray(input_data,np.float32)input= fill_zeros(input)weights=np.asarray(weights_data,np.float32)deconv=my_deconv(input,weights)print(np.asarray(deconv))if __name__=='__main__':main()

计算卷积代码,跟上一篇文章一致。代码直接看注释,不再解释。运行结果如下:

[[[  4.   3.   6.   2.   7.   3.][  4.   3.   3.   2.   7.   5.][  8.   6.   8.   5.  11.   2.][  3.   2.   7.   2.   3.   3.][  5.   5.  11.   3.   9.   3.][  2.   1.   4.   5.   4.   4.]][[  4.   1.   7.   0.   7.   2.][  5.   6.   0.   1.   8.   5.][  8.   0.   8.  -2.  14.   2.][  3.   3.   9.   8.   1.   0.][  3.   0.  13.   0.  11.   2.][  3.   5.   3.   1.   3.   0.]]]

为了验证实现的代码的正确性,我们使用tensorflow的conv2d_transpose函数执行相同的输入和卷积核,看看结果是否一致。验证代码如下:

import tensorflow as tf
import numpy as np 
def tf_conv2d_transpose(input,weights):#input_shape=[n,height,width,channel]input_shape = input.get_shape().as_list()#weights shape=[height,width,out_c,in_c]weights_shape=weights.get_shape().as_list() output_shape=[input_shape[0], input_shape[1]*2 , input_shape[2]*2 , weights_shape[2]]print("output_shape:",output_shape)deconv=tf.nn.conv2d_transpose(input,weights,output_shape=output_shape,strides=[1, 2, 2, 1], padding='SAME')return deconvdef main(): weights_np=np.asarray(weights_data,np.float32)#将输入的每个卷积核旋转180°weights_np=np.rot90(weights_np,2,(2,3))const_input = tf.constant(input_data , tf.float32)const_weights = tf.constant(weights_np , tf.float32 )input = tf.Variable(const_input,name="input")#[c,h,w]------>[h,w,c]input=tf.transpose(input,perm=(1,2,0))#[h,w,c]------>[n,h,w,c]input=tf.expand_dims(input,0)#weights shape=[out_c,in_c,h,w]weights = tf.Variable(const_weights,name="weights")#[out_c,in_c,h,w]------>[h,w,out_c,in_c]weights=tf.transpose(weights,perm=(2,3,0,1))#执行tensorflow的反卷积deconv=tf_conv2d_transpose(input,weights) init=tf.global_variables_initializer()sess=tf.Session()sess.run(init)deconv_val  = sess.run(deconv) hwc=deconv_val[0]print(hwc) if __name__=='__main__':main() 

上面代码中,有几点需要注意:

  1. 每个卷积核需要旋转180°后,再传入tf.nn.conv2d_transpose函数中,因为tf.nn.conv2d_transpose内部会旋转180°,所以提前旋转,再经过内部旋转后,能保证卷积核跟我们所使用的卷积核的数据排列一致。
  2. 我们定义的输入的shape为[c,h,w]需要转为tensorflow所使用的[n,h,w,c]。
  3. 我们定义的卷积核shape为[out_c,in_c,h,w],需要转为tensorflow反卷积中所使用的[h,w,out_c,in_c]

执行上面代码后,执行结果如下:

[[  4.   3.   6.   2.   7.   3.][  4.   3.   3.   2.   7.   5.][  8.   6.   8.   5.  11.   2.][  3.   2.   7.   2.   3.   3.][  5.   5.  11.   3.   9.   3.][  2.   1.   4.   5.   4.   4.]]
[[  4.   1.   7.   0.   7.   2.][  5.   6.   0.   1.   8.   5.][  8.   0.   8.  -2.  14.   2.][  3.   3.   9.   8.   1.   0.][  3.   0.  13.   0.  11.   2.][  3.   5.   3.   1.   3.   0.]]

对比结果可以看到,数据是一致的,证明前面手写的python实现的反卷积代码是正确的。



作者:huachao1001
链接:https://www.jianshu.com/p/f0674e48894c
來源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。

这篇关于Tensorflow反卷积(conv2d_transpose)实现原理+手写python代码实现反卷积(DeConv)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/224832

相关文章

python: 多模块(.py)中全局变量的导入

文章目录 global关键字可变类型和不可变类型数据的内存地址单模块(单个py文件)的全局变量示例总结 多模块(多个py文件)的全局变量from x import x导入全局变量示例 import x导入全局变量示例 总结 global关键字 global 的作用范围是模块(.py)级别: 当你在一个模块(文件)中使用 global 声明变量时,这个变量只在该模块的全局命名空

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

深入探索协同过滤:从原理到推荐模块案例

文章目录 前言一、协同过滤1. 基于用户的协同过滤(UserCF)2. 基于物品的协同过滤(ItemCF)3. 相似度计算方法 二、相似度计算方法1. 欧氏距离2. 皮尔逊相关系数3. 杰卡德相似系数4. 余弦相似度 三、推荐模块案例1.基于文章的协同过滤推荐功能2.基于用户的协同过滤推荐功能 前言     在信息过载的时代,推荐系统成为连接用户与内容的桥梁。本文聚焦于

【C++】_list常用方法解析及模拟实现

相信自己的力量,只要对自己始终保持信心,尽自己最大努力去完成任何事,就算事情最终结果是失败了,努力了也不留遗憾。💓💓💓 目录   ✨说在前面 🍋知识点一:什么是list? •🌰1.list的定义 •🌰2.list的基本特性 •🌰3.常用接口介绍 🍋知识点二:list常用接口 •🌰1.默认成员函数 🔥构造函数(⭐) 🔥析构函数 •🌰2.list对象

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

hdu4407(容斥原理)

题意:给一串数字1,2,......n,两个操作:1、修改第k个数字,2、查询区间[l,r]中与n互质的数之和。 解题思路:咱一看,像线段树,但是如果用线段树做,那么每个区间一定要记录所有的素因子,这样会超内存。然后我就做不来了。后来看了题解,原来是用容斥原理来做的。还记得这道题目吗?求区间[1,r]中与p互质的数的个数,如果不会的话就先去做那题吧。现在这题是求区间[l,r]中与n互质的数的和

活用c4d官方开发文档查询代码

当你问AI助手比如豆包,如何用python禁止掉xpresso标签时候,它会提示到 这时候要用到两个东西。https://developers.maxon.net/论坛搜索和开发文档 比如这里我就在官方找到正确的id描述 然后我就把参数标签换过来

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time

【Python编程】Linux创建虚拟环境并配置与notebook相连接

1.创建 使用 venv 创建虚拟环境。例如,在当前目录下创建一个名为 myenv 的虚拟环境: python3 -m venv myenv 2.激活 激活虚拟环境使其成为当前终端会话的活动环境。运行: source myenv/bin/activate 3.与notebook连接 在虚拟环境中,使用 pip 安装 Jupyter 和 ipykernel: pip instal

Android实现任意版本设置默认的锁屏壁纸和桌面壁纸(两张壁纸可不一致)

客户有些需求需要设置默认壁纸和锁屏壁纸  在默认情况下 这两个壁纸是相同的  如果需要默认的锁屏壁纸和桌面壁纸不一样 需要额外修改 Android13实现 替换默认桌面壁纸: 将图片文件替换frameworks/base/core/res/res/drawable-nodpi/default_wallpaper.*  (注意不能是bmp格式) 替换默认锁屏壁纸: 将图片资源放入vendo