前馈神经网络基础教程

2024-04-02 01:48

本文主要是介绍前馈神经网络基础教程,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

@(深度学习)[神经网络]
本文主要参考链接
#1. 前馈神经网络基础教程
##1.1. 概述
以监督学习为例,假设我们有训练样本集 ( x ( i ) , y ( i ) ) (x(^i),y(^i)) (x(i),y(i)),那么神经网络算法能够提供一种负责且非线性的假设模型 h W , b ( x ) h_{W,b}(x) hW,b(x),它具有参数 W , b W,b W,b,可以通过调整此参数来拟合我们的数据。

为了描述神经网络,我们先从最简单的神经网络讲起,这个神经网络仅由一个“神经元”构成,以下即是这个“神经元”的图示:
单个神经元示意图

这个“神经元”是一个以 x 1 , x 2 , x 3 x_1, x_2, x_3 x1,x2,x3及截距+1为输入值的运算单元,其输出为 h W , b ( x ) = f ( W T X ) = f ( ∑ i = 1 3 W i x i + b ) h_{W,b}(x)=f(W^TX)=f(\sum_{i=1}^{3}W_ix_i+b) hW,b(x)=f(WTX)=f(i=13Wixi+b),其中函数 f : R ⟼ R f:\mathscr{R}\longmapsto \mathscr{R} f:RR被称为激活函数。注意,有的教程中用 x 0 = 1 x_0=1 x0=1来表示截距+1。在本教程中,我们选用sigmoid函数作为激活函数 f ( ⋅ ) f(\cdot) f()
f ( z ) = 1 1 + e x p ( − z ) f(z)=\frac{1}{1+exp(-z)} f(z)=1+exp(z)1
可以看出,这个单一“神经元”的输入输出映射关系其实就是一个逻辑回归(logistic regression)。
##1.2. 神经网络模型
所谓神经网络就是将许多个单一“神经元”联结在一起,这样,一个“神经元”的输出就可以是另一个“神经元”的输入。下图是一个简单的神经网络例子:
这里写图片描述
我们使用圆圈来表示神经网络的输入,标上“+1”的圆圈被称为偏置节点,也就是截距项。神经网络最左边的一层叫做输入层,最右边的一层叫做输出层(在本例中,输出层只有一个节点)。中间所有节点组成的一层叫做隐藏层,因为我们不能在训练样本集中观测到它们的值。同时可以看到,以上神经网络的例子中有3个输入单元(偏置单元不计在内),3个隐藏单元以及1个输出单元。

我们用 n l n_l nl来表示网络的层数,本例中 n l = 3 n_l=3 nl=3,记第 l l l层记为 L l L_l Ll,于是 L 1 L_1 L1是输入层, L n l L_{n_l} Lnl是输出层。本例神经网络有参数 ( W , b ) = ( W ( 1 ) , b ( 1 ) , W ( 2 ) , b ( 2 ) ) (W,b)=(W^{(1)},b^{(1)},W^{(2)},b^{(2)}) (W,b)=(W(1),b(1),W(2),b(2)),其中 W i j ( l ) W_{ij}^{(l)} Wij(l)(下面的式子中用到)是第 l l l层第 j j j单元与第 l + 1 l+1 l+1层第 i i i单元之间的联接参数(连接线上的权重,从 j j j i i i), b i ( l ) b_i^{(l)} bi(l)是第 l + 1 l+1 l+1层第 i i i单元的偏置项。因此在本例中, W ( 1 ) ∈ R 3 × 3 W^{(1)}\in\mathscr{R}^{3\times3} W(1)R3×3 W ( 2 ) ∈ R 1 × 3 W^{(2)}\in\mathscr{R}^{1\times3} W(2)R1×3。注意,偏置单元没有输入,是因为他们总是输出+1。同时,我们用 s l s_l sl表示第 l l l层的结点数(不包括偏置单元)。

我们用 a i ( l ) a_i^{(l)} ai(l)表示第 l l l层第 i i i单元的激活值的(输出值)。当 l = 1 l=1 l=1时, a i ( l ) = x i a_i^{(l)}=x_i ai(l)=xi,也就是输入层的第 i i i个输入值(输入值的第 i i i个特征)。对于给定参数集合 W , b W,b W,b,我们的神经网络就可以按照 h W , b ( x ) h_{W,b}(x) hW,b(x)来计算输出结果。本例中神经网络的计算步骤如下:
\begin{align}
a_1{(2)}&=f(W_{11}{(1)}x_1+W_{12}{(1)}x_2+W_{13}{(1)}x_3+b_1^{(1)})\
a_2{(2)}&=f(W_{21}{(1)}x_1+W_{22}{(1)}x_2+W_{23}{(1)}x_3+b_2^{(1)})\
a_3{(2)}&=f(W_{31}{(1)}x_1+W_{32}{(1)}x_2+W_{33}{(1)}x_3+b_3^{(1)})\
h_{W,b}(x)&=a_1{(3)}=f(W_{11}{(2)}a_1{(2)}+W_{12}{(2)}a_2{(2)}+W_{13}{(2)}a_3{(2)}+b_1{(2)})
\end{align}
我们用 z i ( l ) z_i^{(l)} zi(l)表示第 l l l层第 i i i单元输入加权和(包括偏置单元),比如, z i ( 2 ) = ∑ j = 1 n W i j ( 1 ) x j + b i ( 1 ) z_i^{(2)}=\sum_{j=1}^nW_{ij}^{(1)}x_j+b_i^{(1)} zi(2)=j=1nWij(1)xj+bi(1) a i ( 2 ) = f ( z i ( 2 ) ) a_i^{(2)}=f(z_i^{(2)}) ai(2)=f(zi(2))

我们将激活函数 f ( ⋅ ) f(\cdot) f()扩展为向量形式: f ( [ z 1 , z 2 , z 3 ] ) = [ f ( z 1 ) , f ( z 2 ) , f ( z 3 ) ] f([z_1,z_2,z_3])=[f(z_1),f(z_2),f(z_3)] f([z1,z2,z3])=[f(z1),f(z2),f(z3)],那么,上面的等式可以更简洁地表示为:
\begin{align}
z{(2)}&=W{(1)}x+b^{(1)}\
a{(2)}&=f(z{(2)})\
z{(3)}&=W{(2)}a{(2)}+b{(2)}\
h_{W,b}(x)&=a{(3)}=f(z{(3)})\
\end{align}
我们将上面的计算步骤叫做前向传播。给定第 l l l层的激活值 a ( l ) a^{(l)} a(l)后,第 l + 1 l+1 l+1层的激活值 a ( l + 1 ) a^{(l+1)} a(l+1)就可以按照下面步骤计算得到:
\begin{align}
z{(l+1)}&=W{(l)}a{(l)}+b{(l)}\
a{(l+1)}&=f(z{(l+1)})\
\end{align}
将参数矩阵化,使用矩阵-向量运算方式,我们就可以利用线性代数的优势对神经网络进行快速求解。
神经网络也可以由多个隐藏层和多个输出单元,例如下图所示:
这里写图片描述
像上图这样的网络,叫做前馈神经网络,这种联接图没有闭环或回路。

这篇关于前馈神经网络基础教程的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/868669

相关文章

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

机器学习之监督学习(三)神经网络

机器学习之监督学习(三)神经网络基础 0. 文章传送1. 深度学习 Deep Learning深度学习的关键特点深度学习VS传统机器学习 2. 生物神经网络 Biological Neural Network3. 神经网络模型基本结构模块一:TensorFlow搭建神经网络 4. 反向传播梯度下降 Back Propagation Gradient Descent模块二:激活函数 activ

图神经网络框架DGL实现Graph Attention Network (GAT)笔记

参考列表: [1]深入理解图注意力机制 [2]DGL官方学习教程一 ——基础操作&消息传递 [3]Cora数据集介绍+python读取 一、DGL实现GAT分类机器学习论文 程序摘自[1],该程序实现了利用图神经网络框架——DGL,实现图注意网络(GAT)。应用demo为对机器学习论文数据集——Cora,对论文所属类别进行分类。(下图摘自[3]) 1. 程序 Ubuntu:18.04

基于深度学习 卷积神经网络resnext50的中医舌苔分类系统

项目概述 本项目旨在通过深度学习技术,特别是利用卷积神经网络(Convolutional Neural Networks, CNNs)中的ResNeXt50架构,实现对中医舌象图像的自动分类。该系统不仅能够识别不同的舌苔类型,还能够在PyQt5框架下提供一个直观的图形用户界面(GUI),使得医生或患者能够方便地上传舌象照片并获取分析结果。 技术栈 深度学习框架:采用PyTorch或其他

图神经网络(2)预备知识

1. 图的基本概念         对于接触过数据结构和算法的读者来说,图并不是一个陌生的概念。一个图由一些顶点也称为节点和连接这些顶点的边组成。给定一个图G=(V,E),  其 中V={V1,V2,…,Vn}  是一个具有 n 个顶点的集合。 1.1邻接矩阵         我们用邻接矩阵A∈Rn×n表示顶点之间的连接关系。 如果顶点 vi和vj之间有连接,就表示(vi,vj)  组成了

自然语言处理系列六十三》神经网络算法》LSTM长短期记忆神经网络算法

注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《自然语言处理原理与实战》(人工智能科学与技术丛书)【陈敬雷编著】【清华大学出版社】 文章目录 自然语言处理系列六十三神经网络算法》LSTM长短期记忆神经网络算法Seq2Seq端到端神经网络算法 总结 自然语言处理系列六十三 神经网络算法》LSTM长短期记忆神经网络算法 长短期记忆网络(LSTM,Long S

神经网络训练不起来怎么办(零)| General Guidance

摘要:模型性能不理想时,如何判断 Model Bias, Optimization, Overfitting 等问题,并以此着手优化模型。在这个分析过程中,我们可以对Function Set,模型弹性有直观的理解。关键词:模型性能,Model Bias, Optimization, Overfitting。 零,领域背景 如果我们的模型表现较差,那么我们往往需要根据 Training l

如何将卷积神经网络(CNN)应用于医学图像分析:从分类到分割和检测的实用指南

引言 在现代医疗领域,医学图像已经成为疾病诊断和治疗规划的重要工具。医学图像的类型繁多,包括但不限于X射线、CT(计算机断层扫描)、MRI(磁共振成像)和超声图像。这些图像提供了对身体内部结构的详细视图,有助于医生在进行准确诊断和制定个性化治疗方案时获取关键的信息。 1. 医学图像分析的挑战 医学图像分析面临诸多挑战,其中包括: 图像数据的复杂性:医学图像通常具有高维度和复杂的结构

临床基础两手抓!这个12+神经网络模型太贪了,免疫治疗预测、通路重要性、基因重要性、通路交互作用性全部拿下!

生信碱移 IRnet介绍 用于预测病人免疫治疗反应类型的生物过程嵌入神经网络,提供通路、通路交互、基因重要性的多重可解释性评估。 临床实践中常常遇到许多复杂的问题,常见的两种是: 二分类或多分类:预测患者对治疗有无耐受(二分类)、判断患者的疾病分级(多分类); 连续数值的预测:预测癌症病人的风险、预测患者的白细胞数值水平; 尽管传统的机器学习提供了高效的建模预测与初步的特征重

postman基础教程-04run

Postman 工具自带了Runner功能,用于批量运行脚本。在运行时还可以使用外部的CSV或者json文件来指定数据 左侧collections下保存的测试集,点击小三角,点击run按钮 在runner页面中如下图,图1 是可以选择我们要运行的项目,图2是选择我们运行的环境,图3是运行次数和延迟时间,图4是选择的外部测试数据如csv 点击run 可以看到跑完了项目中所有的接口