SppNet 多尺度训练

2024-04-30 17:48
文章标签 训练 尺度 sppnet

本文主要是介绍SppNet 多尺度训练,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

SppNet 多尺度训练

 

原理网上非常多了,这里不再赘述。

感觉我看了很多博客,对我帮助较大的两个是:

https://blog.csdn.net/qq_42052229/article/details/90446073

https://zhuanlan.zhihu.com/p/42732128

 

使用过程中的重点总结:

 

1、网络目的确实是解决input的图像size大小不同的问题

但是:

训练的时候,我们需要一个batch一个batch的训练,这每一个batch的维度是相同的,意味着,这一个batch内的图像input size是相同的,才能训练。除非我们一张一张的训练,这样就会带来其他的很多问题。

所以在训练的时候,往往采用几种不同尺度的size的input,对同一个网络分别进行训练。

而测试时候,因为一般是一张一张的,所以可以任意size的图像input。

 

2、使用自适应卷积一样可以。

 

3、代码拆解,不一定要按照网上人家的来,最后全连接数量自己可以任意调整。

 

4、例子pytorch:

多尺度训练:不同尺度size分别跑一个epoch

if __name__ == '__main__':train_loader_350, test_loader_350 = load(350)train_loader_400, test_loader_400 = load(400)train_loader_450, test_loader_450 = load(450)train_loader_500, test_loader_500 = load(500)train_loaders = [train_loader_350, train_loader_400, train_loader_450, train_loader_500]test_loaders = [test_loader_350, test_loader_400, test_loader_450, test_loader_500]model = SPPNet().to(device)optimizer = optim.Adam(model.parameters(), lr=0.0001, betas=(0.9, 0.99))criterion = nn.CrossEntropyLoss()for epoch in range(1, EPOCH + 1):for train_loader, test_loader in zip(train_loaders, test_loaders):train(model, device, train_loader, criterion, optimizer, epoch)test(model, device, test_loader, criterion, epoch)torch.save(model, save_path)

resnet+sppnet,或者 自适应卷积


import torch
from torch import nn
from torchvision import models
import torch.nn.functional as F
import os, math
from torch.nn.modules.pooling import AdaptiveAvgPool2d, AdaptiveMaxPool2dclass ResNet(nn.Module):def __init__(self, layers=18, num_class=2, pretrained=True):super(ResNet, self).__init__()if layers == 18:self.resnet = models.resnet18(pretrained=pretrained)elif layers == 34:self.resnet = models.resnet34(pretrained=pretrained)elif layers == 50:self.resnet = models.resnet50(pretrained=pretrained)elif layers == 101:self.resnet = models.resnet101(pretrained=pretrained)elif layers == 152:self.resnet = models.resnet152(pretrained=pretrained)else:raise ValueError('layers should be 18, 34, 50, 101.')self.num_class = num_classif layers in [18, 34]:self.fc = nn.Linear(512, num_class)if layers in [50, 101, 152]:self.fc = nn.Linear(512 * 4, num_class)def conv_base(self, x):x = self.resnet.conv1(x)x = self.resnet.bn1(x)x = self.resnet.relu(x)x = self.resnet.maxpool(x)layer1 = self.resnet.layer1(x)layer2 = self.resnet.layer2(layer1)layer3 = self.resnet.layer3(layer2)layer4 = self.resnet.layer4(layer3)return layer1, layer2, layer3, layer4def forward(self, x):layer1, layer2, layer3, layer4 = self.conv_base(x)x = self.resnet.avgpool(layer4)x = x.view(x.size(0), -1)x = self.fc(x)return xclass SPPNet(nn.Module):def __init__(self, backbone=101, num_class=2, pool_size=(1, 2, 6), pretrained=True):# Only resnet is supported in this versionsuper(SPPNet, self).__init__()if backbone in [18, 34, 50, 101, 152]:self.resnet = ResNet(backbone, num_class, pretrained)else:raise ValueError('Resnet{} is not supported yet.'.format(backbone))if backbone in [18, 34]:self.c = 512if backbone in [50, 101, 152]:self.c = 2048self.spp = SpatialPyramidPool2D(out_side=pool_size)num_features = self.c * (pool_size[0] ** 2 + pool_size[1] ** 2 + pool_size[2] ** 2)self.classifier = nn.Linear(num_features, num_class)def forward(self, x):_, _, _, x = self.resnet.conv_base(x)x = self.spp(x)x = self.classifier(x)return xclass SpatialPyramidPool2D(nn.Module):"""Args:out_side (tuple): Length of side in the pooling results of each pyramid layer.Inputs:- `input`: the input Tensor to invert ([batch, channel, width, height])"""def __init__(self, out_side):super(SpatialPyramidPool2D, self).__init__()self.out_side = out_sidedef forward(self, x):# batch_size, c, h, w = x.size()out = Nonefor n in self.out_side:
#             w_r, h_r = map(lambda s: math.ceil(s / n), x.size()[2:])  # Receptive Field Size
#             s_w, s_h = map(lambda s: math.floor(s / n), x.size()[2:])  # Stride
#             max_pool = nn.MaxPool2d(kernel_size=(w_r, h_r), stride=(s_w, s_h))max_pool = AdaptiveMaxPool2d(output_size=(n, n))y = max_pool(x)if out is None:out = y.view(y.size()[0], -1)else:out = torch.cat((out, y.view(y.size()[0], -1)), 1)return out

code源地址:

https://github.com/mmmmmmiracle/SPPNet/blob/master/multi.py

https://github.com/stanleykao72/Deepfake-Detector/blob/934749da71ae31f6e689f2ca2e015cd3e2d5c50a/py_utils/DL/sppnet/models/classifier.py

 

这篇关于SppNet 多尺度训练的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/949515

相关文章

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者

MiniGPT-3D, 首个高效的3D点云大语言模型,仅需一张RTX3090显卡,训练一天时间,已开源

项目主页:https://tangyuan96.github.io/minigpt_3d_project_page/ 代码:https://github.com/TangYuan96/MiniGPT-3D 论文:https://arxiv.org/pdf/2405.01413 MiniGPT-3D在多个任务上取得了SoTA,被ACM MM2024接收,只拥有47.8M的可训练参数,在一张RTX

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering)

Spark MLlib模型训练—聚类算法 PIC(Power Iteration Clustering) Power Iteration Clustering (PIC) 是一种基于图的聚类算法,用于在大规模数据集上进行高效的社区检测。PIC 算法的核心思想是通过迭代图的幂运算来发现数据中的潜在簇。该算法适用于处理大规模图数据,特别是在社交网络分析、推荐系统和生物信息学等领域具有广泛应用。Spa

SigLIP——采用sigmoid损失的图文预训练方式

SigLIP——采用sigmoid损失的图文预训练方式 FesianXu 20240825 at Wechat Search Team 前言 CLIP中的infoNCE损失是一种对比性损失,在SigLIP这个工作中,作者提出采用非对比性的sigmoid损失,能够更高效地进行图文预训练,本文进行介绍。如有谬误请见谅并联系指出,本文遵守CC 4.0 BY-SA版权协议,转载请联系作者并注

Detectorn2预训练模型复现:数据准备、训练命令、日志分析与输出目录

Detectorn2预训练模型复现:数据准备、训练命令、日志分析与输出目录 在深度学习项目中,目标检测是一项重要的任务。本文将详细介绍如何使用Detectron2进行目标检测模型的复现训练,涵盖训练数据准备、训练命令、训练日志分析、训练指标以及训练输出目录的各个文件及其作用。特别地,我们将演示在训练过程中出现中断后,如何使用 resume 功能继续训练,并将我们复现的模型与Model Zoo中的

多云架构下大模型训练的存储稳定性探索

一、多云架构与大模型训练的融合 (一)多云架构的优势与挑战 多云架构为大模型训练带来了诸多优势。首先,资源灵活性显著提高,不同的云平台可以提供不同类型的计算资源和存储服务,满足大模型训练在不同阶段的需求。例如,某些云平台可能在 GPU 计算资源上具有优势,而另一些则在存储成本或性能上表现出色,企业可以根据实际情况进行选择和组合。其次,扩展性得以增强,当大模型的规模不断扩大时,单一云平

神经网络训练不起来怎么办(零)| General Guidance

摘要:模型性能不理想时,如何判断 Model Bias, Optimization, Overfitting 等问题,并以此着手优化模型。在这个分析过程中,我们可以对Function Set,模型弹性有直观的理解。关键词:模型性能,Model Bias, Optimization, Overfitting。 零,领域背景 如果我们的模型表现较差,那么我们往往需要根据 Training l

如何创建训练数据集

在 HuggingFace 上创建数据集非常方便,创建完成之后,通过 API 可以方便的下载并使用数据集,在 Google Colab 上进行模型调优,下载数据集速度非常快,本文通过 Dataset 库创建一个简单的训练数据集。 首先安装数据集依赖 HuggingFace datasetshuggingface_hub 创建数据集 替换为自己的 HuggingFace API key

【YOLO 系列】基于YOLOV8的智能花卉分类检测系统【python源码+Pyqt5界面+数据集+训练代码】

前言: 花朵作为自然界中的重要组成部分,不仅在生态学上具有重要意义,也在园艺、农业以及艺术领域中占有一席之地。随着图像识别技术的发展,自动化的花朵分类对于植物研究、生物多样性保护以及园艺爱好者来说变得越发重要。为了提高花朵分类的效率和准确性,我们启动了基于YOLO V8的花朵分类智能识别系统项目。该项目利用深度学习技术,通过分析花朵图像,自动识别并分类不同种类的花朵,为用户提供一个高效的花朵识别

深度学习与大模型第3课:线性回归模型的构建与训练

文章目录 使用Python实现线性回归:从基础到scikit-learn1. 环境准备2. 数据准备和可视化3. 使用numpy实现线性回归4. 使用模型进行预测5. 可视化预测结果6. 使用scikit-learn实现线性回归7. 梯度下降法8. 随机梯度下降和小批量梯度下降9. 比较不同的梯度下降方法总结 使用Python实现线性回归:从基础到scikit-learn 线性