05 TensorFlow 2.0:CNN总结及实战

2024-06-23 21:48
文章标签 05 tensorflow 2.0 cnn 实战 总结

本文主要是介绍05 TensorFlow 2.0:CNN总结及实战,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

浮云爱蹉跎 流光怕寂寞
填残篇脉络 续断章因果
问今生旅途几时交错
前尘灯火 隔世传说
                                                                                                                                《流光卷》

卷积层

发现特征轮廓,实现特征提取。数据稀疏交互,参数共享(因为样本存在局部相关的特性),参数大幅下降。为了保证输入输出shape一致,可采用padding。深层,习得更高级的特征。

激活层

卷积层发现特征之后,激活层,有种使得重要特征更突出,不重要特征为0或者更小的意思(Relu负的值=0)。还有一种解释是,非线性变换,空间维度扭曲,这样就可以在高维表征/区分数据特征。

池化层

下采样,一般2x2的过滤器maxpooling,4个点变1个,最大特征凸显,减少卷积核尺寸(长度和宽度改变了,深度没变),权重参数的数目减少到了75%。一定程度提高空间不变性,比如说平移不变性,尺度不变性,形变不变性(降采样特性),控制过拟合。

全连接层

对学习到的特征进行结果的概率映射(多分类softmax保证输出P为0~1且概率和=1)。也就是这里解释说的“分类器”作用。因全连接大幅增加了参数,目前有用其他代替全连接的策略,可搜搜。

动手搭建一个

CIFAR-100数据集CNN搭建

import tensorflow as tf
import getConfig
gConfig={}
gConfig=getConfig.get_config(config_file='config.ini')class cnnModel(object):#初始化函数,将dropout的失效概率初始化def __init__(self,rate):self.rate=ratedef createModel(self):#容器model = tf.keras.Sequential()#使用双层卷积结构的方式提取图像特征,第一层双层卷积使用使用3*3的卷积核,输出维度是64,全局使用he_normal进行kernel_initializer,激活函数使用relumodel.add(tf.keras.layers.Conv2D(64, 3, kernel_initializer='he_normal', strides=1, activation='relu', padding='same',input_shape=(32,32,3),name="conv1"))model.add(tf.keras.layers.Conv2D(64, 3, kernel_initializer='he_normal', strides=1, activation='relu', padding='same',name="conv2"))#使用tf.keras.layers.MaxPool2D搭建神经网络的池化层,使用最大值池化策略,将2*2局域的像素使用一个最大值代替,步幅为2,padding使用valid策略model.add(tf.keras.layers.MaxPool2D((2, 2), strides=2, padding='valid', name="pool1"))#叠加一层Dropout层,提高泛化性,降低神经网络的复杂度model.add(tf.keras.layers.Dropout(rate=self.rate, name="d1"))# 使用batchnormalization对上一层的输出数据进行归一化model.add(tf.keras.layers.BatchNormalization(

这篇关于05 TensorFlow 2.0:CNN总结及实战的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1088369

相关文章

关于C++中的虚拟继承的一些总结(虚拟继承,覆盖,派生,隐藏)

1.为什么要引入虚拟继承 虚拟继承是多重继承中特有的概念。虚拟基类是为解决多重继承而出现的。如:类D继承自类B1、B2,而类B1、B2都继承自类A,因此在类D中两次出现类A中的变量和函数。为了节省内存空间,可以将B1、B2对A的继承定义为虚拟继承,而A就成了虚拟基类。实现的代码如下: class A class B1:public virtual A; class B2:pu

十五.各设计模式总结与对比

1.各设计模式总结与对比 1.1.课程目标 1、 简要分析GoF 23种设计模式和设计原则,做整体认知。 2、 剖析Spirng的编程思想,启发思维,为之后深入学习Spring做铺垫。 3、 了解各设计模式之间的关联,解决设计模式混淆的问题。 1.2.内容定位 1、 掌握设计模式的"道" ,而不只是"术" 2、 道可道非常道,滴水石穿非一日之功,做好长期修炼的准备。 3、 不要为了

React+TS前台项目实战(十七)-- 全局常用组件Dropdown封装

文章目录 前言Dropdown组件1. 功能分析2. 代码+详细注释3. 使用方式4. 效果展示 总结 前言 今天这篇主要讲全局Dropdown组件封装,可根据UI设计师要求自定义修改。 Dropdown组件 1. 功能分析 (1)通过position属性,可以控制下拉选项的位置 (2)通过传入width属性, 可以自定义下拉选项的宽度 (3)通过传入classN

人工智能机器学习算法总结神经网络算法(前向及反向传播)

1.定义,意义和优缺点 定义: 神经网络算法是一种模仿人类大脑神经元之间连接方式的机器学习算法。通过多层神经元的组合和激活函数的非线性转换,神经网络能够学习数据的特征和模式,实现对复杂数据的建模和预测。(我们可以借助人类的神经元模型来更好的帮助我们理解该算法的本质,不过这里需要说明的是,虽然名字是神经网络,并且结构等等也是借鉴了神经网络,但其原型以及算法本质上还和生物层面的神经网络运行原理存在

Java注解详细总结

什么是注解?         Java注解是代码中的特殊标记,比如@Override、@Test等,作用是:让其他程序根据注解信息决定怎么执行该程序。         注解不光可以用在方法上,还可以用在类上、变量上、构造器上等位置。 自定义注解  现在我们自定义一个MyTest注解 public @interface MyTest{String aaa();boolean bbb()

tensorboard-----summary用法总结

Tensorflow学习笔记——Summary用法         最近在研究tensorflow自带的例程speech_command,顺便学习tensorflow的一些基本用法。 其中tensorboard 作为一款可视化神器,可以说是学习tensorflow时模型训练以及参数可视化的法宝。 而在训练过程中,主要用到了tf.summary()的各类方法,能够保存训练过程以及参数分布图并在

基于CTPN(tensorflow)+CRNN(pytorch)+CTC的不定长文本检测和识别

转发来源:https://swift.ctolib.com/ooooverflow-chinese-ocr.html chinese-ocr 基于CTPN(tensorflow)+CRNN(pytorch)+CTC的不定长文本检测和识别 环境部署 sh setup.sh 使用环境: python 3.6 + tensorflow 1.10 +pytorch 0.4.1 注:CPU环境

七种排序方式总结

/*2018.01.23*A:YUAN*T:其中排序算法:冒泡排序,简单排序,直接插入排序,希尔排序,堆排序,归并排序,快速排序*/#include <stdio.h>#include <math.h>#include <malloc.h>#define MAXSIZE 10000#define FALSE 0#define TRUE 1typedef struct {i

PyTorch模型_trace实战:深入理解与应用

pytorch使用trace模型 1、使用trace生成torchscript模型2、使用trace的模型预测 1、使用trace生成torchscript模型 def save_trace(model, input, save_path):traced_script_model = torch.jit.trace(model, input)<

Java实现MD5加密总结

Java实现MD5加密总结 大家好,我是免费搭建查券返利机器人省钱赚佣金就用微赚淘客系统3.0的小编,也是冬天不穿秋裤,天冷也要风度的程序猿! 1. 什么是MD5加密 MD5是一种常用的哈希算法,用于将任意长度的数据通过哈希运算转换为固定长度的数据串,通常为128位的二进制串,常用于对密码等敏感信息进行加密存储或传输。 2. Java实现MD5加密的方法 2.1 使用java.sec