读书笔记--神经网络与深度学习(三)前馈神经网络

2024-04-07 02:38

本文主要是介绍读书笔记--神经网络与深度学习(三)前馈神经网络,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

4 前馈神经网络

从机器学习的角度看,神经网络一般可以看做是一个非线性模型。

4.1 神经元

净输入z 在经过一个非线性函数f(·)后,得到神经元的活性值(Activation)a,a = f(z), 其中非线性函数f(·)称为激活函数(Activation Function)。
激活函数 激活函数在神经元中非常重要的。为了增强网络的表示能力和学习能力,激活函数需要具备以下几点性质:

  1. 连续并可导(允许少数点上不可导)的非线性函数。可导的激活函数可以直接利用数值优化的方法来学习网络参数。
  2. 激活函数及其导函数要尽可能的简单,有利于提高网络计算效率。
  3. 激活函数的导函数的值域要在一个合适的区间内,不能太大也不能太小,否则会影响训练的效率和稳定性。

4.1.1 Sigmoid型激活函数

Sigmoid型函数是指一类S型曲线函数,为两端饱和函数.常用的Sigmoid型 函数有Logistic函数和Tanh函数。
对于函数f(x),若x → −∞时,其导数f′(x) → 0,则称其为左饱和。若x → +∞时,其导数f′(x) → 0,则称其为右饱和。当同时满足左、右饱和时,就称为两端饱和。

4.1.2 修正线性单元

修正线性单元(Rectified Linear Unit,ReLU),也叫rectifier函数,是目前深层神经网络中经常使用的激活函数。

4.1.3 Swish函数

Swish 函数是一种自门控(Self-Gated)激活函数。swish(x) = xσ(βx), 其中σ(·)为Logistic函数,β 为可学习的参数或一个固定超参数。σ(·) ∈ (0, 1)可以看作是一种软性的门控机制。当σ(βx)接近于1时,门处于“开”状态,激活函数的输出近似于x本身;当σ(βx)接近于0时,门的状态为“关”,激活函数的输出近似于0。

4.1.4 Maxout单元

输入是上一层神经元的全部原始输入,是一个向量x = [x1; x2; · · · , xd]。

4.2 网络结构

4.2.1 前馈网络

前馈网络包括全连接前馈网络[本章中的第4.3节] 和卷积神经网络[第5章]等。
前馈网络可以看作一个函数,通过简单非线性函数的多次复合,实现输入空间到输出空间的复杂映射。这种网络结构简单,易于实现

4.2.2 记忆网络

记忆网络,也称为反馈网络,网络中的神经元不但可以接收其它神经元的信息,也可以接收自己的历史信息。和前馈网络相比,记忆网络中的神经元具有记忆功能,在不同的时刻具有不同的状态。记忆神经网络中的信息传播可以是单向或双向传递,因此可用一个有向循环图或无向图来表示。记忆网络包括循环神经网络[第6章],Hopfield网络[第6章]、玻尔兹曼机[第12章]等。
为了增强记忆网络的记忆容量,可以引入外部记忆单元和读写机制,用来保存一些网络的中间状态,成为记忆增强神经网络。

4.2.3 图网络

前馈网络和反馈网络难以处理图结构的数据。
图网络是前馈网络和记忆网络的泛化,包含很多事实现方式,如图卷积网路,消息传递网络等。

4.3 前馈神经网络

前馈神经网络FNN,是最早发明的简单人工神经网络。也称为多层感知器。(实际上是多层的logistic回归模型)
前馈神经网络通过逐层的信息传递, 最后得到网络最后的输出。

4.3.1 通用近似定理

前馈神经网络具有很强的拟合能力,常见的连续非线性函数都可以用前馈网络来近似。
根据通用近似定理,对于具有线性输出层和至少一个使用“挤压”性质的激活函数的隐藏层组成的前馈神经网络,只要其隐藏层神经元的数量足够,它可以以任意的精度来近似任何从一个定义在实数空间 Rd 中的有界闭集函数 。所谓“挤压”性质的函数是指像 Sigmoid 函数的有界函数,但神经网络的通用近似性质也被证明对于其它类型的激活函数,比如ReLU,也都是适用的。

4.3.2 应用到机器学习

依据通用近似定理,神经网络在某种程度上可以作为一个“万能”函数来使用,用来进行复杂的特征转换或者逼近一个负责的条件分布。

4.3.3 参数学习

梯度下降法需要计算损失函数对参数的偏导数,如果通过链式法则逐一对每个参数进行求偏导比较低效。在神经网络的训练中经常使用反向传播算法来高效地计算梯度。

4.4 反向传播算法

第l层的误差项可以通过第l + 1层的误差项计算得到,这就是误差的反向传播。
反向传播算法的含义是:第l 层的一个神经元的误差项(或敏感性)是所有与该神经元相连的第l + 1层的神经元的误差项的权重和。然后,再乘上该神经元激活函数的梯度。在计算出每一层的误差项之后,我们就可以得到每一层参数的梯度。
因此,基于误差反向传播算法(Backpropagation,BP)的前馈神经网络训练过程可以
分为以下三步:

  1. 前馈计算每一层的净输入z(l) 和激活值a(l),直到最后一层;
  2. 反向传播计算每一层的误差项δ(l);
  3. 计算每一层参数的偏导数,并更新参数。

4.5 自动梯度计算

目前,几乎所有的主流深度学习框架都包含了自动梯度计算的功能,即我们可以只考虑网络结构并用代码实现,其梯度可以自动进行计算,无需人工干预,这样可以大幅提高开发效率。

4.6 优化问题

神经网络的参数学习比线性模型要更加困难,主要原因有两点:(1)非凸优化问题和(2)梯度消失问题。

4.7 小结

本章介绍的前馈神经网络是一种类型最简单的网络,相邻两层的神经元之间为全连接关系,也称为全连接神经网络(Fully Connected Neural Network,FCNN)或多层感知器。
虽然当时前馈神经网络的参数学习依然有很多难点,但其作为一种连接主义的典型模型,标志人工智能从高度符号化的知识期向低符号化的学习期开始转变。

这篇关于读书笔记--神经网络与深度学习(三)前馈神经网络的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/881447

相关文章

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

最长公共子序列问题的深度分析与Java实现方式

《最长公共子序列问题的深度分析与Java实现方式》本文详细介绍了最长公共子序列(LCS)问题,包括其概念、暴力解法、动态规划解法,并提供了Java代码实现,暴力解法虽然简单,但在大数据处理中效率较低,... 目录最长公共子序列问题概述问题理解与示例分析暴力解法思路与示例代码动态规划解法DP 表的构建与意义动

Go中sync.Once源码的深度讲解

《Go中sync.Once源码的深度讲解》sync.Once是Go语言标准库中的一个同步原语,用于确保某个操作只执行一次,本文将从源码出发为大家详细介绍一下sync.Once的具体使用,x希望对大家有... 目录概念简单示例源码解读总结概念sync.Once是Go语言标准库中的一个同步原语,用于确保某个操

五大特性引领创新! 深度操作系统 deepin 25 Preview预览版发布

《五大特性引领创新!深度操作系统deepin25Preview预览版发布》今日,深度操作系统正式推出deepin25Preview版本,该版本集成了五大核心特性:磐石系统、全新DDE、Tr... 深度操作系统今日发布了 deepin 25 Preview,新版本囊括五大特性:磐石系统、全新 DDE、Tree

Node.js 中 http 模块的深度剖析与实战应用小结

《Node.js中http模块的深度剖析与实战应用小结》本文详细介绍了Node.js中的http模块,从创建HTTP服务器、处理请求与响应,到获取请求参数,每个环节都通过代码示例进行解析,旨在帮... 目录Node.js 中 http 模块的深度剖析与实战应用一、引言二、创建 HTTP 服务器:基石搭建(一

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]