关于Keras里的Sequential(序列模型)转化为Model(函数模型)的问题

2024-01-31 09:50

本文主要是介绍关于Keras里的Sequential(序列模型)转化为Model(函数模型)的问题,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 前言
  • 一、序列模型
  • 二、改为函数模型
    • 1.错误代码
  • 总结


前言

想在keras模型上加上注意力机制,于是把keras的序列模型转化为函数模型,结果发现参数维度不一致的问题,结果也变差了。跟踪问题后续发现是转为函数模型后,网络共享层出现了问题。

一、序列模型

该部分采用的是add添加网络层,由于存在多次重复调用相同网络层的情况,因此封装成一个自定义函数:

  def create_base_network(input_dim):seq = Sequential()seq.add(Conv2D(64, 5, activation='relu', padding='same', name='conv1', input_shape=input_dim))seq.add(Conv2D(128, 4, activation='relu', padding='same', name='conv2'))seq.add(Conv2D(256, 4, activation='relu', padding='same', name='conv3'))seq.add(Conv2D(64, 1, activation='relu', padding='same', name='conv4'))seq.add(MaxPooling2D(2, 2, name='pool1'))seq.add(Flatten(name='fla1'))seq.add(Dense(512, activation='relu', name='dense1'))seq.add(Reshape((1, 512), name='reshape'))

整体代码,该模型存在多个输入(6个):

	def create_base_network(input_dim):seq = Sequential()seq.add(Conv2D(64, 5, activation='relu', padding='same', name='conv1', input_shape=input_dim))seq.add(Conv2D(128, 4, activation='relu', padding='same', name='conv2'))seq.add(Conv2D(256, 4, activation='relu', padding='same', name='conv3'))seq.add(Conv2D(64, 1, activation='relu', padding='same', name='conv4'))seq.add(MaxPooling2D(2, 2, name='pool1'))seq.add(Flatten(name='fla1'))seq.add(Dense(512, activation='relu', name='dense1'))seq.add(Reshape((1, 512), name='reshape'))return seqbase_network = create_base_network(img_size)input_1 = Input(shape=img_size)input_2 = Input(shape=img_size)input_3 = Input(shape=img_size)input_4 = Input(shape=img_size)input_5 = Input(shape=img_size)input_6 = Input(shape=img_size)print('the shape of base1:', base_network(input_1).shape)   # (, 1, 512)out_all = Concatenate(axis=1)([base_network(input_1), base_network(input_2), base_network(input_3), base_network(input_4), base_network(input_5), base_network(input_6)])print('****', out_all.shape)   # (, 6, 512)lstm_layer = LSTM(128, name = 'lstm')(out_all)out_puts = Dense(3, activation = 'softmax', name = 'out')(lstm_layer)model = Model([input_1,input_2,input_3,input_4,input_5,input_6], out_puts)model.summary()

网络模型:
在这里插入图片描述

二、改为函数模型

1.错误代码

第一次更改网络模型后,虽然运行未报错,但参数变多,模型性能也下降了,如下:

   def create_base_network(input_dim):x = Conv2D(64, 5, activation='relu', padding='same')(input_dim)x = Conv2D(128, 4, activation='relu', padding='same')(x)x = Conv2D(256, 4, activation='relu', padding='same')(x)x = Conv2D(64, 1, activation='relu', padding='same')(x)x = MaxPooling2D(2, 2)(x)x = Flatten()(x)x = Dense(512, activation='relu')(x)x = Reshape((1, 512))(x)return xinput_1 = Input(shape=img_size)input_2 = Input(shape=img_size)input_3 = Input(shape=img_size)input_4 = Input(shape=img_size)input_5 = Input(shape=img_size)input_6 = Input(shape=img_size)base_network_1 = create_base_network(input_1)base_network_2 = create_base_network(input_2)base_network_3 = create_base_network(input_3)base_network_4 = create_base_network(input_4)base_network_5 = create_base_network(input_5)base_network_6 = create_base_network(input_6)# print('the shape of base1:', base_network(input_1).shape)   # (, 1, 512)out_all = Concatenate(axis = 1)(  # 维度不变, 维度拼接,第一维度变为原来的6[base_network_1, base_network_2, base_network_3, base_network_4, base_network_5, base_network_6])print('****', out_all.shape)   # (, 6, 512)lstm_layer = LSTM(128, name = 'lstm')(out_all)out_puts = Dense(3, activation = 'softmax', name = 'out')(lstm_layer)model = Model(inputs = [input_1, input_2, input_3, input_4, input_5, input_6], outputs = out_puts)  # 6个输入model.summary()

结果模型输出如下:
在这里插入图片描述
可以看到,模型的参数变为了原来的6倍多,改了很多次,后来发现,原来是因为序列模型中的base_network = create_base_network(img_size)相当于已将模型实例化成了一个model,后续调用时只传入参数,而不更改模型结构。

而改为Model API后:
base_network_1 = create_base_network(input_1)
...
base_network_6 = create_base_network(input_6)

前面定义的 def create_base_network( inputs),并未进行实例化,后续相当于创建了6次相关网络层,应该先实例化,应当改为以下部分:

# 建立网络共享层
x1 = Conv2D(64, 5, activation = 'relu', padding = 'same', name= 'conv1')
x2 = Conv2D(128, 4, activation = 'relu', padding = 'same', name = 'conv2')
x3 = Conv2D(256, 4, activation = 'relu', padding = 'same', name = 'conv3')
x4 = Conv2D(64, 1, activation = 'relu', padding = 'same', name = 'conv4')
x5 = MaxPooling2D(2, 2)
x6 = Flatten()
x7 = Dense(512, activation = 'relu')
x8 = Reshape((1, 512))input_1 = Input(shape = img_size)   # 得到6个输入
input_2 = Input(shape = img_size)
input_3 = Input(shape = img_size)
input_4 = Input(shape = img_size)
input_5 = Input(shape = img_size)
input_6 = Input(shape = img_size)base_network_1 = x8(x7(x6(x5(x4(x3(x2(x1(input_1))))))))
base_network_2 = x8(x7(x6(x5(x4(x3(x2(x1(input_2))))))))
base_network_3 = x8(x7(x6(x5(x4(x3(x2(x1(input_3))))))))
base_network_4 = x8(x7(x6(x5(x4(x3(x2(x1(input_4))))))))
base_network_5 = x8(x7(x6(x5(x4(x3(x2(x1(input_5))))))))
base_network_6 = x8(x7(x6(x5(x4(x3(x2(x1(input_6))))))))# 输入连接
out_all = Concatenate(axis = 1)(                            # 维度不变, 维度拼接,第一维度变为原来的6[base_network_1, base_network_2, base_network_3, base_network_4, base_network_5, base_network_6])# lstm layer
lstm_layer = LSTM(128, name = 'lstm3')(out_all)
# dense layer
out_layer = Dense(3, activation = 'softmax', name = 'out')(lstm_layer)
model = Model(inputs = [input_1, input_2, input_3, input_4, input_5, input_6], outputs = out_layer)  # 6个输入
model.summary()

总结

Keras里的函数模型,如果想要多个输入共享多个网络层,
还是得将各个层实例化,不能偷懒。。。

这篇关于关于Keras里的Sequential(序列模型)转化为Model(函数模型)的问题的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/663352

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

好题——hdu2522(小数问题:求1/n的第一个循环节)

好喜欢这题,第一次做小数问题,一开始真心没思路,然后参考了网上的一些资料。 知识点***********************************无限不循环小数即无理数,不能写作两整数之比*****************************(一开始没想到,小学没学好) 此题1/n肯定是一个有限循环小数,了解这些后就能做此题了。 按照除法的机制,用一个函数表示出来就可以了,代码如下

hdu1043(八数码问题,广搜 + hash(实现状态压缩) )

利用康拓展开将一个排列映射成一个自然数,然后就变成了普通的广搜题。 #include<iostream>#include<algorithm>#include<string>#include<stack>#include<queue>#include<map>#include<stdio.h>#include<stdlib.h>#include<ctype.h>#inclu

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

hdu1171(母函数或多重背包)

题意:把物品分成两份,使得价值最接近 可以用背包,或者是母函数来解,母函数(1 + x^v+x^2v+.....+x^num*v)(1 + x^v+x^2v+.....+x^num*v)(1 + x^v+x^2v+.....+x^num*v) 其中指数为价值,每一项的数目为(该物品数+1)个 代码如下: #include<iostream>#include<algorithm>

usaco 1.2 Palindromic Squares(进制转化)

考察进制转化 注意一些细节就可以了 直接上代码: /*ID: who jayLANG: C++TASK: palsquare*/#include<stdio.h>int x[20],xlen,y[20],ylen,B;void change(int n){int m;m=n;xlen=0;while(m){x[++xlen]=m%B;m/=B;}m=n*n;ylen=0;whi

usaco 1.2 Name That Number(数字字母转化)

巧妙的利用code[b[0]-'A'] 将字符ABC...Z转换为数字 需要注意的是重新开一个数组 c [ ] 存储字符串 应人为的在末尾附上 ‘ \ 0 ’ 详见代码: /*ID: who jayLANG: C++TASK: namenum*/#include<stdio.h>#include<string.h>int main(){FILE *fin = fopen (

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

购买磨轮平衡机时应该注意什么问题和技巧

在购买磨轮平衡机时,您应该注意以下几个关键点: 平衡精度 平衡精度是衡量平衡机性能的核心指标,直接影响到不平衡量的检测与校准的准确性,从而决定磨轮的振动和噪声水平。高精度的平衡机能显著减少振动和噪声,提高磨削加工的精度。 转速范围 宽广的转速范围意味着平衡机能够处理更多种类的磨轮,适应不同的工作条件和规格要求。 振动监测能力 振动监测能力是评估平衡机性能的重要因素。通过传感器实时监

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验