Convolutional layers/Pooling layers/Dense Layer 卷积层/池化层/稠密层

2024-08-31 11:18

本文主要是介绍Convolutional layers/Pooling layers/Dense Layer 卷积层/池化层/稠密层,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Convolutional layers/Pooling layers/Dense Layer 卷积层/池化层/稠密层

Convolutional layers 卷积层

Convolutional layers, which apply a specified number of convolution filters to the image. For each subregion, the layer performs a set of mathematical operations to produce a single value in the output feature map. Convolutional layers then typically apply a ReLU activation function to the output to introduce nonlinearities into the model.
卷积层,就是使用一系列filter对图片做卷积计算,提取特征。并且典型的卷积层会使用ReLU激活函数来引入非线性因数。

卷积过程 引用自:[https://cs231n.github.io/convolutional-networks/][1]

卷积的计算过程方法如下图,也就是用filter扫描整个图片,并做wx+b计算:

计算模型 引用自:[https://cs231n.github.io/convolutional-networks/][1]

学习到这里,作为小白,又遇到了障碍:

  1. ReLU激活函数是什么?
  2. 引入非线性有什么作用?
    查看了各种文章后,我得出了结论:

ReLU激活函数,它就是一个非线性函数,

 

引入非线性的作用:
a)减少计算 b)避免梯度消失 c)网络的稀疏性,避免过拟合。

Pooling layers 池化层

池化这个概念相对简单,类似于压缩图片。
如下图,max pool即取设定矩形里最大的值作为输出数据:

max pool 引用自:[https://cs231n.github.io/convolutional-networks/][1]

Dense(fully connected) Layer 稠密层(全连接层) 

 通过卷积和池化,然后得到了众多特征,稠密层的每一个节点都与这些特征节点相连构成稠密层(全连接层)。稠密层的作用就是分类。简单的说就是每一个特征节点手里握着一定的权重来决定输入是属于那个分类,最终全部特征的权重共同决定了输入所属分类的权重或概率。

总结

本文通过查阅资料,总结出其中关键的概念,浅尝则止,没有做深入探究,避免了过多不明概念对学习目标的阻碍。

References

https://cs231n.github.io/convolutional-networks/
http://brohrer.github.io/how_convolutional_neural_networks_work.html
http://blog.csdn.net/cyh_24/article/details/50593400
https://www.zhihu.com/question/29021768
https://baike.baidu.com/item/线性整流函数/20263760?fr=aladdin
https://en.wikipedia.org/wiki/Activation_function
[1]: https://cs231n.github.io/convolutional-networks/
[2]: http://brohrer.github.io/how_convolutional_neural_networks_work.html
[3]: http://blog.csdn.net/cyh_24/article/details/50593400 “激活函数”
--------------------- 
【转载】:https://blog.csdn.net/fenjiehuang/article/details/79247215

这篇关于Convolutional layers/Pooling layers/Dense Layer 卷积层/池化层/稠密层的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1123754

相关文章

[Linux Kernel Block Layer第一篇] block layer架构设计

目录 1. single queue架构 2. multi-queue架构(blk-mq)  3. 问题 随着SSD快速存储设备的发展,内核社区越发发现,存储的性能瓶颈从硬件存储设备转移到了内核block layer,主要因为当时的内核block layer是single hw queue的架构,导致cpu锁竞争问题严重,本文先提纲挈领的介绍内核block layer的架构演进,然

基于深度学习 卷积神经网络resnext50的中医舌苔分类系统

项目概述 本项目旨在通过深度学习技术,特别是利用卷积神经网络(Convolutional Neural Networks, CNNs)中的ResNeXt50架构,实现对中医舌象图像的自动分类。该系统不仅能够识别不同的舌苔类型,还能够在PyQt5框架下提供一个直观的图形用户界面(GUI),使得医生或患者能够方便地上传舌象照片并获取分析结果。 技术栈 深度学习框架:采用PyTorch或其他

如何将卷积神经网络(CNN)应用于医学图像分析:从分类到分割和检测的实用指南

引言 在现代医疗领域,医学图像已经成为疾病诊断和治疗规划的重要工具。医学图像的类型繁多,包括但不限于X射线、CT(计算机断层扫描)、MRI(磁共振成像)和超声图像。这些图像提供了对身体内部结构的详细视图,有助于医生在进行准确诊断和制定个性化治疗方案时获取关键的信息。 1. 医学图像分析的挑战 医学图像分析面临诸多挑战,其中包括: 图像数据的复杂性:医学图像通常具有高维度和复杂的结构

深度学习基础--卷积的变种

随着卷积同经网络在各种问题中的广泛应用,卷积层也逐渐衍生出了许多变种,比较有代表性的有: 分组卷积( Group Convolution )、转置卷积 (Transposed Convolution) 、空洞卷积( Dilated/Atrous Convolution )、可变形卷积( Deformable Convolution ),下面分别介绍下。 1. 分组卷积 在普通的卷积操作中,一个

Neighborhood Homophily-based Graph Convolutional Network

#paper/ccfB 推荐指数: #paper/⭐ #pp/图结构学习 流程 重定义同配性指标: N H i k = ∣ N ( i , k , c m a x ) ∣ ∣ N ( i , k ) ∣ with c m a x = arg ⁡ max ⁡ c ∈ [ 1 , C ] ∣ N ( i , k , c ) ∣ NH_i^k=\frac{|\mathcal{N}(i,k,c_{

android xml之Drawable 篇 --------shape和selector和layer-list的

转自 : http://blog.csdn.net/brokge/article/details/9713041 <shape>和<selector>在Android UI设计中经常用到。比如我们要自定义一个圆角Button,点击Button有些效果的变化,就要用到<shape>和<selector>。 可以这样说,<shape>和<selector>在美化控件中的作用是至关重要。 在

[论文笔记]Making Large Language Models A Better Foundation For Dense Retrieval

引言 今天带来北京智源研究院(BAAI)团队带来的一篇关于如何微调LLM变成密集检索器的论文笔记——Making Large Language Models A Better Foundation For Dense Retrieval。 为了简单,下文中以翻译的口吻记录,比如替换"作者"为"我们"。 密集检索需要学习具有区分性的文本嵌入,以表示查询和文档之间的语义关系。考虑到大语言模

时序预测|变分模态分解-双向时域卷积-双向门控单元-注意力机制多变量时间序列预测VMD-BiTCN-BiGRU-Attention

时序预测|变分模态分解-双向时域卷积-双向门控单元-注意力机制多变量时间序列预测VMD-BiTCN-BiGRU-Attention 文章目录 一、基本原理1. 变分模态分解(VMD)2. 双向时域卷积(BiTCN)3. 双向门控单元(BiGRU)4. 注意力机制(Attention)总结流程 二、实验结果三、核心代码四、代码获取五、总结 时序预测|变分模态分解-双向时域卷积

卷积神经网络(二)CIFAR100类别分类

一.数据介绍 总共一百个类,每个类有600个图像。每类500个训练图像,100个测试图像。没填图像都带有一个"精细"标签(它所属的类)核一个粗糙标签(它所属的超类)  二.API使用 用于构建CNN模型的API Conv2D:实现卷积,kernel_size,strides,padding,datafromat,'NHWC'核'NCHW' MaxPool2D:池化操作 impo

【python 走进NLP】从零开始搭建textCNN卷积神经网络模型

无意中发现了一个巨牛的人工智能教程,忍不住分享一下给大家。教程不仅是零基础,通俗易懂,而且非常风趣幽默,像看小说一样!觉得太牛了,所以分享给大家。点这里可以跳转到教程。人工智能教程 1、众所周知,tensorflow 是一个开源的机器学习框架,它的出现大大降低了机器学习的门槛,即使你没有太多的数学知识,它也可以允许你用“搭积木”的方式快速实现一个神经网络,即使没有调节太多的参数,模型的表现一般还