[Keras] 使用Keras编写自定义网络层(layer)

2024-08-28 13:08

本文主要是介绍[Keras] 使用Keras编写自定义网络层(layer),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Keras提供众多常见的已编写好的层对象,例如常见的卷积层、池化层等,我们可以直接通过以下代码调用:

# 调用一个Conv2D层
from keras import layers
conv2D = keras.layers.convolutional.Conv2D(filters,\
kernel_size, \
strides=(1, 1), \
padding='valid', \
...)

但是在实际应用中,我们经常需要自己构建一些层对象,已满足某些自定义网络的特殊需求。
幸运的是,Keras对自定义层提供了良好的支持。

下面对常用方法进行总结。

方法1:keras.core.lambda()

如果我们的自定义层中不包含可训练的权重,而只是对上一层输出做一些函数变换,那么我们可以直接使用keras.core模块(该模块包含常见的基础层,如Dense、Activation等)下的lambda函数:

keras.layers.core.Lambda(function, output_shape=None, mask=None, arguments=None)

参数说明:
function:要实现的函数,该函数仅接受一个变量,即上一层的输出
output_shape:函数应该返回的值的shape,可以是一个tuple,也可以是一个根据输入shape计算输出shape的函数
mask: 掩膜
arguments:可选,字典,用来记录向函数中传递的其他关键字参数

但是多数情况下,我们需要定义的是一个全新的、拥有可训练权重的层,这个时候我们就需要使用下面的方法。

方法2: 编写Layer继承类

keras.engine.topology中包含了Layer的父类,我们可以通过继承来实现自己的层。
要定制自己的层,需要实现下面三个方法

build(input_shape):这是定义权重的方法,可训练的权应该在这里被加入列表self.trainable_weights中。其他的属性还包括self.non_trainabe_weights(列表)和self.updates(需要更新的形如(tensor,new_tensor)的tuple的列表)。这个方法必须设置self.built = True,可通过调用super([layer],self).build()实现。

call(x):这是定义层功能的方法,除非你希望你写的层支持masking,否则你只需要关心call的第一个参数:输入张量。

compute_output_shape(input_shape):如果你的层修改了输入数据的shape,你应该在这里指定shape变化的方法,这个函数使得Keras可以做自动shape推断。

一个比较好的学习方法是阅读Keras已编写好的类的源代码,尝试理解其中的逻辑。

下面,我们将通过一个实际的例子,编写一个自定义层。
出于学习的目的,在该例子中,会添加一些的注释文字,用以解释一些函数功能。

该层结构来源自DenseNet,代码参考Github。

from keras.layers.core import Layer
from keras.engine import InputSpec
from keras import backend as K
try:from keras import initializations
except ImportError:from keras import initializers as initializations
# 继承父类Layer
class Scale(Layer):'''该层功能:通过向量元素依次相乘(Element wise multiplication)调整上层输出的形状。out = in * gamma + beta,gamma代表权重weights,beta代表偏置bias参数列表:axis: int型,代表需要做scale的轴方向,axis=-1 代表选取默认方向(横行)。momentum: 对数据方差和标准差做指数平均时的动量.weights: 初始权重,是一个包含两个numpy array的list, shapes:[(input_shape,), (input_shape,)]beta_init: 偏置量的初始化方法名。(参考Keras.initializers.只有weights未传参时才会使用.gamma_init: 权重量的初始化方法名。(参考Keras.initializers.只有weights未传参时才会使用.'''def __init__(self, weights=None, axis=-1, beta_init = 'zero', gamma_init = 'one', momentum = 0.9, **kwargs):# 参数**kwargs代表按字典方式继承父类self.momentum = momentumself.axis = axisself.beta_init = initializers.Zeros()self.gamma_init = initializers.Ones()self.initial_weights = weightssuper(Scale, self).__init__(**kwargs)def build(self, input_shape):self.input_spec = [InputSpec(shape=input_shape)]# 1:InputSpec(dtype=None, shape=None, ndim=None, max_ndim=None, min_ndim=None, axes=None)#Docstring:     #Specifies the ndim, dtype and shape of every input to a layer.#Every layer should expose (if appropriate) an `input_spec` attribute:a list of instances of InputSpec (one per input tensor).#A None entry in a shape is compatible with any dimension#A None shape is compatible with any shape.# 2:self.input_spec: List of InputSpec class instances# each entry describes one required input:#     - ndim#     - dtype# A layer with `n` input tensors must have# an `input_spec` of length `n`.shape = (int(input_shape[self.axis]),)# Compatibility with TensorFlow >= 1.0.0self.gamma = K.variable(self.gamma_init(shape), name='{}_gamma'.format(self.name))self.beta = K.variable(self.beta_init(shape), name='{}_beta'.format(self.name))self.trainable_weights = [self.gamma, self.beta]if self.initial_weights is not None:self.set_weights(self.initial_weights)del self.initial_weightsdef call(self, x, mask=None):input_shape = self.input_spec[0].shapebroadcast_shape = [1] * len(input_shape)broadcast_shape[self.axis] = input_shape[self.axis]out = K.reshape(self.gamma, broadcast_shape) * x + K.reshape(self.beta, broadcast_shape)return outdef get_config(self):config = {"momentum": self.momentum, "axis": self.axis}base_config = super(Scale, self).get_config()return dict(list(base_config.items()) + list(config.items()))

以上就是编写自定义层的实例,可以直接添加到自己的model中。
编写好的layer自动存放在custom_layers中,通过import调用。

from custom_layers import Scaledef myNet(growth_rate=32, \
nb_filter=64, \
reduction=0.0, \
dropout_rate=0.0, weight_decay=1e-4,...)...
x = "last_layer_name"
x = Scale(axis=concat_axis, name='scale')(x)
...model = Model(input, x, name='myNet')
return model

这篇关于[Keras] 使用Keras编写自定义网络层(layer)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1114846

相关文章

Java使用Curator进行ZooKeeper操作的详细教程

《Java使用Curator进行ZooKeeper操作的详细教程》ApacheCurator是一个基于ZooKeeper的Java客户端库,它极大地简化了使用ZooKeeper的开发工作,在分布式系统... 目录1、简述2、核心功能2.1 CuratorFramework2.2 Recipes3、示例实践3

springboot security使用jwt认证方式

《springbootsecurity使用jwt认证方式》:本文主要介绍springbootsecurity使用jwt认证方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录前言代码示例依赖定义mapper定义用户信息的实体beansecurity相关的类提供登录接口测试提供一

go中空接口的具体使用

《go中空接口的具体使用》空接口是一种特殊的接口类型,它不包含任何方法,本文主要介绍了go中空接口的具体使用,具有一定的参考价值,感兴趣的可以了解一下... 目录接口-空接口1. 什么是空接口?2. 如何使用空接口?第一,第二,第三,3. 空接口几个要注意的坑坑1:坑2:坑3:接口-空接口1. 什么是空接

springboot security快速使用示例详解

《springbootsecurity快速使用示例详解》:本文主要介绍springbootsecurity快速使用示例,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝... 目录创www.chinasem.cn建spring boot项目生成脚手架配置依赖接口示例代码项目结构启用s

Python如何使用__slots__实现节省内存和性能优化

《Python如何使用__slots__实现节省内存和性能优化》你有想过,一个小小的__slots__能让你的Python类内存消耗直接减半吗,没错,今天咱们要聊的就是这个让人眼前一亮的技巧,感兴趣的... 目录背景:内存吃得满满的类__slots__:你的内存管理小助手举个大概的例子:看看效果如何?1.

java中使用POI生成Excel并导出过程

《java中使用POI生成Excel并导出过程》:本文主要介绍java中使用POI生成Excel并导出过程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录需求说明及实现方式需求完成通用代码版本1版本2结果展示type参数为atype参数为b总结注:本文章中代码均为

Spring Boot3虚拟线程的使用步骤详解

《SpringBoot3虚拟线程的使用步骤详解》虚拟线程是Java19中引入的一个新特性,旨在通过简化线程管理来提升应用程序的并发性能,:本文主要介绍SpringBoot3虚拟线程的使用步骤,... 目录问题根源分析解决方案验证验证实验实验1:未启用keep-alive实验2:启用keep-alive扩展建

使用Java实现通用树形结构构建工具类

《使用Java实现通用树形结构构建工具类》这篇文章主要为大家详细介绍了如何使用Java实现通用树形结构构建工具类,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录完整代码一、设计思想与核心功能二、核心实现原理1. 数据结构准备阶段2. 循环依赖检测算法3. 树形结构构建4. 搜索子

GORM中Model和Table的区别及使用

《GORM中Model和Table的区别及使用》Model和Table是两种与数据库表交互的核心方法,但它们的用途和行为存在著差异,本文主要介绍了GORM中Model和Table的区别及使用,具有一... 目录1. Model 的作用与特点1.1 核心用途1.2 行为特点1.3 示例China编程代码2. Tab

SpringBoot使用OkHttp完成高效网络请求详解

《SpringBoot使用OkHttp完成高效网络请求详解》OkHttp是一个高效的HTTP客户端,支持同步和异步请求,且具备自动处理cookie、缓存和连接池等高级功能,下面我们来看看SpringB... 目录一、OkHttp 简介二、在 Spring Boot 中集成 OkHttp三、封装 OkHttp