Caffe Prototxt 特征层系列:Scale Layer

2024-06-15 09:32

本文主要是介绍Caffe Prototxt 特征层系列:Scale Layer,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Scale Layer是输入进行缩放和平移,常常出现在BatchNorm归一化后,Caffe中常用BatchNorm+Scale实现归一化操作(等同Pytorch中BatchNorm)

首先我们先看一下 ScaleParameter

message ScaleParameter {// The first axis of bottom[0] (the first input Blob) along which to apply// bottom[1] (the second input Blob).  May be negative to index from the end// (e.g., -1 for the last axis).// 根据 bottom[0] 指定 bottom[1] 的形状// For example, if bottom[0] is 4D with shape 100x3x40x60, the output// top[0] will have the same shape, and bottom[1] may have any of the// following shapes (for the given value of axis)://    (axis == 0 == -4) 100; 100x3; 100x3x40; 100x3x40x60//    (axis == 1 == -3)          3;     3x40;     3x40x60//    (axis == 2 == -2)                   40;       40x60//    (axis == 3 == -1)                                60// Furthermore, bottom[1] may have the empty shape (regardless of the value of// "axis") -- a scalar multiplier.// 例如,如果 bottom[0] 的 shape 为 100x3x40x60,则 top[0] 输出相同的 shape;// bottom[1] 可以包含上面 shapes 中的任一种(对于给定 axis 值). // 而且,bottom[1] 可以是 empty shape 的,没有任何的 axis 值,只是一个标量的乘子.optional int32 axis = 1 [default = 1];// (num_axes is ignored unless just one bottom is given and the scale is// a learned parameter of the layer.  Otherwise, num_axes is determined by the// number of axes by the second bottom.)// (忽略 num_axes 参数,除非只给定一个 bottom 及 scale 是网络层的一个学习到的参数. // 否则,num_axes 是由第二个 bottom 的数量来决定的.)// The number of axes of the input (bottom[0]) covered by the scale// parameter, or -1 to cover all axes of bottom[0] starting from `axis`.// Set num_axes := 0, to multiply with a zero-axis Blob: a scalar.// bottom[0] 的 num_axes 是由 scale 参数覆盖的;optional int32 num_axes = 2 [default = 1];// (filler is ignored unless just one bottom is given and the scale is// a learned parameter of the layer.)// (忽略 filler 参数,除非只给定一个 bottom 及 scale 是网络层的一个学习到的参数.// The initialization for the learned scale parameter.// scale 参数学习的初始化// Default is the unit (1) initialization, resulting in the ScaleLayer// initially performing the identity operation.// 默认是单位初始化,使 Scale 层初始进行单位操作.optional FillerParameter filler = 3;// Whether to also learn a bias (equivalent to a ScaleLayer+BiasLayer, but// may be more efficient).  Initialized with bias_filler (defaults to 0).// 是否学习 bias,等价于 ScaleLayer+BiasLayer,只不过效率更高// 采用 bias_filler 进行初始化. 默认为 0.optional bool bias_term = 4 [default = false];optional FillerParameter bias_filler = 5;
}

Scale layer 在prototxt里面的书写:

layer {name: "scale_conv1"type: "Scale"bottom: "conv1"top: "conv1"scale_param {bias_term: true
}

例如在MobileNet中:

layer {name: "conv6_4/scale"type: "Scale"bottom: "conv6_4/bn"top: "conv6_4/bn"param {lr_mult: 1decay_mult: 0}param {lr_mult: 1decay_mult: 0}scale_param {bias_term: true}
}

这篇关于Caffe Prototxt 特征层系列:Scale Layer的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1063068

相关文章

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

flume系列之:查看flume系统日志、查看统计flume日志类型、查看flume日志

遍历指定目录下多个文件查找指定内容 服务器系统日志会记录flume相关日志 cat /var/log/messages |grep -i oom 查找系统日志中关于flume的指定日志 import osdef search_string_in_files(directory, search_string):count = 0

GPT系列之:GPT-1,GPT-2,GPT-3详细解读

一、GPT1 论文:Improving Language Understanding by Generative Pre-Training 链接:https://cdn.openai.com/research-covers/languageunsupervised/language_understanding_paper.pdf 启发点:生成loss和微调loss同时作用,让下游任务来适应预训

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

Java基础回顾系列-第七天-高级编程之IO

Java基础回顾系列-第七天-高级编程之IO 文件操作字节流与字符流OutputStream字节输出流FileOutputStream InputStream字节输入流FileInputStream Writer字符输出流FileWriter Reader字符输入流字节流与字符流的区别转换流InputStreamReaderOutputStreamWriter 文件复制 字符编码内存操作流(

Java基础回顾系列-第五天-高级编程之API类库

Java基础回顾系列-第五天-高级编程之API类库 Java基础类库StringBufferStringBuilderStringCharSequence接口AutoCloseable接口RuntimeSystemCleaner对象克隆 数字操作类Math数学计算类Random随机数生成类BigInteger/BigDecimal大数字操作类 日期操作类DateSimpleDateForma

Java基础回顾系列-第三天-Lambda表达式

Java基础回顾系列-第三天-Lambda表达式 Lambda表达式方法引用引用静态方法引用实例化对象的方法引用特定类型的方法引用构造方法 内建函数式接口Function基础接口DoubleToIntFunction 类型转换接口Consumer消费型函数式接口Supplier供给型函数式接口Predicate断言型函数式接口 Stream API 该篇博文需重点了解:内建函数式

Java基础回顾系列-第二天-面向对象编程

面向对象编程 Java类核心开发结构面向对象封装继承多态 抽象类abstract接口interface抽象类与接口的区别深入分析类与对象内存分析 继承extends重写(Override)与重载(Overload)重写(Override)重载(Overload)重写与重载之间的区别总结 this关键字static关键字static变量static方法static代码块 代码块String类特