centernet笔记 - inference阶段后处理

2024-04-24 11:08

本文主要是介绍centernet笔记 - inference阶段后处理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

预备知识,mxnet.ndarray的一些操作
shape_array

shape_array([[1,2,3,4], [5,6,7,8]]) = [2,4]  # 获取ndarry的shape
# Returns a 1D int64 array containing the shape of data.

split

Splits an array along a particular axis into multiple sub-arrays.
cc = [  1  80 128 128]
N, C, H, W = cc.split(num_outputs=4, axis=0)
# N = [1], C = [80], H = [128], W = [128]

topk

topk(data=None, axis=_Null, k=_Null, ret_typ=_Null, is_ascend=_Null, dtype=_Null, out=None, name=None, **kwargs)
# data : The input array
# axis : 从哪个维度选取topk,默认-1,即最后一个维度
# ret_typ : return type,可以选择返回值,或者index,或者both
# is_ascend : 是否逆序,默认为0,返回 top k largest

cast

Casts all elements of the input to a new type.
# 将array中元素转换为指定的类型
cast([0.9, 1.3], dtype='int32') = [0, 1]

slice_like

# Slices a region of the array like the shape of another array. 
x = [[  1.,   2.,   3.,   4.],[  5.,   6.,   7.,   8.],[  9.,  10.,  11.,  12.]]
y = [[  0.,   0.,   0.],[  0.,   0.,   0.]]
slice_like(x, y) = [[ 1.,  2.,  3.][ 5.,  6.,  7.]]
slice_like(x, y, axes=(0, 1)) = [[ 1.,  2.,  3.][ 5.,  6.,  7.]]
slice_like(x, y, axes=(0)) = [[ 1.,  2.,  3.,  4.][ 5.,  6.,  7.,  8.]]
slice_like(x, y, axes=(-1)) = [[  1.,   2.,   3.][  5.,   6.,   7.][  9.,  10.,  11.]]

expand_dims

# Inserts a new axis of size 1 into the array shape For example, given x with shape (2,3,4),
# then expand_dims(x, axis=1) will return a new array with shape (2,1,3,4).
mxnet.ndarray.expand_dims(data=None, axis=_Null, out=None, name=None, **kwargs)
# axis=-1, 则在末尾增加一个维度

tile

# 将array复制n次
x = [[1, 2],[3, 4]]
tile(x, reps=(2,3)) = [[ 1.,  2.,  1.,  2.,  1.,  2.],[ 3.,  4.,  3.,  4.,  3.,  4.],[ 1.,  2.,  1.,  2.,  1.,  2.],[ 3.,  4.,  3.,  4.,  3.,  4.]]

gather_nd
参考:https://discuss.gluon.ai/t/topic/2413/3

# 从array中,按照输入的索引取出其中的元素
data = [[0, 1], [2, 3]]
indices = [[1, 1, 0], [0, 1, 0]]
gather_nd(data, indices) = [2, 3, 0] # 取出(1,0),(1,1),(0,0)的元素

centernet训练与预测过程中,图片的几何变化
训练阶段:原图 -> (512,512) -> (128,128)
预测阶段:(128,128) -> (512,512) -> 原图

在inference阶段,模型的输出是在128x128的feature shape上,在feature map上得到的结果,需要乘以scale=4.0,才能映射到512x512上,接着,还必须经过512x512到原图的一个仿射变换,才能得到模型最终输出值

核心操作及解码
核心操作

# self.heatmap_nms = nn.MaxPool2D(pool_size=3, strides=1, padding=1)
heatmap = outs[0]
keep = F.broadcast_equal(self.heatmap_nms(heatmap), heatmap)
results = self.decoder(keep * heatmap, outs[1], outs[2])

outs为模型输出,在heatmap所在维度上做3x3的max pooling,把峰值点找出来
解码

    def hybrid_forward(self, F, x, wh, reg):"""Forward of decoder"""import pdbpdb.set_trace()# 这里假设batch_size = 4, resize w和h为512x512_, _, out_h, out_w = x.shape_array().split(num_outputs=4, axis=0) # 获取feature map的H,Wscores, indices = x.reshape((0, -1)).topk(k=self._topk, ret_typ='both') # 获取top_100的scores和indices,x nx80x128x128 -> nx(80x128x128), 某类的128x128元素连在一起indices = F.cast(indices, 'int64')topk_classes = F.cast(F.broadcast_div(indices,(out_h * out_w)),'float32')  #  根据indices,获取top_100对应的类别,0-79topk_indices = F.broadcast_mod(indices, (out_h * out_w))  # 获取在128x128平面拉平后的索引topk_ys = F.broadcast_div(topk_indices, out_w) # 1维索引恢复出2维平面上的ytopk_xs = F.broadcast_mod(topk_indices, out_w) # 1维索引恢复出2维平面上的xcenter = reg.transpose((0, 2, 3, 1)).reshape((0, -1, 2)) # shape: (4, 16384, 2)wh = wh.transpose((0, 2, 3, 1)).reshape((0, -1, 2)) # shape: (4, 16384, 2)batch_indices = F.cast(F.arange(256).slice_like(center, axes=(0)).expand_dims(-1).tile(reps=(1, self._topk)), 'int64') # shape: (4, 100), 依次为全0,全1,全2,全3reg_xs_indices = F.zeros_like(batch_indices, dtype='int64') # shape: (4, 100),全0reg_ys_indices = F.ones_like(batch_indices, dtype='int64') # shape: (4, 100),全1reg_xs = F.concat(batch_indices, topk_indices, reg_xs_indices, dim=0).reshape((3, -1)) # shape: (3, 400)‘’‘reg_xs = [[   0    0    0 ...    3    3    3][9664 8207 9425 ... 9639 5593 9044][   0    0    0 ...    0    0    0]]’‘’reg_ys = F.concat(batch_indices, topk_indices, reg_ys_indices, dim=0).reshape((3, -1))‘’‘reg_ys = [[   0    0    0 ...    3    3    3][9664 8207 9425 ... 9639 5593 9044][   1    1    1 ...    1    1    1]]’‘’xs = F.cast(F.gather_nd(center, reg_xs).reshape((-1, self._topk)), 'float32') # shape : (4, 100)ys = F.cast(F.gather_nd(center, reg_ys).reshape((-1, self._topk)), 'float32') # shape : (4, 100)topk_xs = F.cast(topk_xs, 'float32') + xstopk_ys = F.cast(topk_ys, 'float32') + ys # feature map上坐标+偏移 = 真实坐标w = F.cast(F.gather_nd(wh, reg_xs).reshape((-1, self._topk)), 'float32')  # noqah = F.cast(F.gather_nd(wh, reg_ys).reshape((-1, self._topk)), 'float32')  # noqahalf_w = w / 2half_h = h / 2results = [topk_xs - half_w,topk_ys - half_h,topk_xs + half_w,topk_ys + half_h]results = F.concat(*[tmp.expand_dims(-1) for tmp in results], dim=-1) # shape: (4, 100, 4)return topk_classes, scores, results * self._scale # (4, 100),(4, 100),(4, 100, 4)

由512x512映射到原图

affine_mat = get_post_transform(orig_width, orig_height, 512, 512) # 获取仿射变换矩阵
bbox[0:2] = affine_transform(bbox[0:2], affine_mat) # 对x1,y1做仿射变换
bbox[2:4] = affine_transform(bbox[2:4], affine_mat) # 对x2,y2做仿射变换

这篇关于centernet笔记 - inference阶段后处理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/931580

相关文章

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓

忽略某些文件 —— Git 学习笔记 05

忽略某些文件 忽略某些文件 通过.gitignore文件其他规则源如何选择规则源参考资料 对于某些文件,我们不希望把它们纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表。通常它们都是些自动生成的文件,比如日志文件、编译过程中创建的临时文件等。 通过.gitignore文件 假设我们要忽略 lib.a 文件,那我们可以在 lib.a 所在目录下创建一个名为 .gi

取得 Git 仓库 —— Git 学习笔记 04

取得 Git 仓库 —— Git 学习笔记 04 我认为, Git 的学习分为两大块:一是工作区、索引、本地版本库之间的交互;二是本地版本库和远程版本库之间的交互。第一块是基础,第二块是难点。 下面,我们就围绕着第一部分内容来学习,先不考虑远程仓库,只考虑本地仓库。 怎样取得项目的 Git 仓库? 有两种取得 Git 项目仓库的方法。第一种是在本地创建一个新的仓库,第二种是把其他地方的某个

Git 的特点—— Git 学习笔记 02

文章目录 Git 简史Git 的特点直接记录快照,而非差异比较近乎所有操作都是本地执行保证完整性一般只添加数据 参考资料 Git 简史 众所周知,Linux 内核开源项目有着为数众多的参与者。这么多人在世界各地为 Linux 编写代码,那Linux 的代码是如何管理的呢?事实是在 2002 年以前,世界各地的开发者把源代码通过 diff 的方式发给 Linus,然后由 Linus