神经元、神经网络和线性判别

2024-03-23 14:38

本文主要是介绍神经元、神经网络和线性判别,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

参考《机械工业出版社的matlab》与《机器学习与机器学习算法视角》

Hebb法则

Hebb法则认为突触链接强度的变化与两个相连神经元激活的相关性成正比。如果两个神经元始终同时激活,那么他们之间连接的强度会变大。反之,如果两个神经元从不同时激活,它们之间的连接就会消失。是经典的条件发射(铃声与狗分泌唾液的实验)。当神经元同时被激活时,他们之间的连接会被增强,这种效应也被称为长时程增强效应和神经可塑性。

McCulloch和Pitts神经元

神经元的一种模型
模型包含如下部分:
1.一组输入加权ωi相当于突触
2.一个加法器把输入信号相加(与收集电荷的细胞膜等价)
3.一个激活函数(最初是一个阈值函数)决定新报对于当前的输入是否激活(放电)。
McCulloch和Pitts神经元使用的是二元的阈值函数,把所有输入按权相加,结果超过阈值则判断为1,否则为0。这里的权重可正可负,等价于实际神经元的兴奋性和抑制性。
与现实神经元相比,这样的模型只能进行线性的计算,无法进行非线性的计算;只能给出单一的脉冲响应,实际的神经元可给出一个电位序列;实际神经元的兴奋性抑制性是无法转变的;且实际神经元通常存在反馈机制。

神经网络

单个神经元只能在提供输入后显现激活或不激活,单个神经元是不具备学习能力的。然而将一系列神经元放置在一起,形成神经网络的时候,则能做一些事情。
书里这一段思考十分值得一读,这里摘出来:
首先,我们要思考一个问题,如何使神经元能够学习。在线面几章中,我们将要研究监督学习,意思是算法将用过样例来学习:在学习数据集中,每一个数据点都有一个正确的输出值与之对应。乍一看,似乎毫无意义,既然你已经知道了正确答案,为什么还要去学习呢?这里的关键在于1.2节提到的泛化的概念。假设数据中存在某一种模式,通过给神经网络一些已知的样例,我们希望能够发现这种模式,并且正确地预测其他样例。这有时称为模式识别。
我们之前了解了McCulloch和Pitts神经元模型,它除了上面所说的三部分外并没有其他内容,将视野从单个神经元扩大到整个神经网络,神经元之间也存在联系。学习是发生在神经元与神经元之间的。我们应该如何改变神经元的权重和阈值,使网络能够频繁地得到正确的结果?

感知器

感知器是历史上第一个神经网络,是McCulloch和Pitts神经元组成的集合。
在这里插入图片描述
图中是一个示意图,实际上神经元和输入节点数量未必对等。
在学习时,对于给定的输入,得到一个包含激活和不激活的神经元模式。输入节点到神经元之间存在权重ωiji表示节点,j表示神经元,这就指向了节点与神经元连接的关系。这里,权重的设置就是关键了。
当得到一个错误结果的时候,我们需要选中输出错误结果的神经元并找到与其相连的节点及其权重。我们需要调整这些关联的权重。如果错误的神经元不该激活,那么权重应该调小,反之如果应该激活,那么权重应该调大
学习速率η权重调整的幅度幅度过大会导致网络不稳定,过小会较大幅度增大学习时间,但也会降低系统对噪音的敏感度。一般η取值在0.1-04之间。如果设置为1,则不会影响学习效率。
输入偏置输入偏置用于解决0输入时,某些神经元需要激活,因为在输入为0时,无论0乘以什么都为零,理论上是无法激活的,因此使用偏置来让它从一个值开始变化,这样0输入就不是一个0值了。
线性可分性: 感知器将神经元该不该激活的情况分开。它尝试寻找一条直线,对于三维是平面,更高维为超平面。在线(面)的一边神经元是激活的,另一侧是未激活的。这个边界为决策边界(判别函数)。当给定一些数据,以及与之对应的目标输出时候,感知器只是尝试寻找一条直线,使能够把神经元激活的样例和神经元不激活的样例区分开。如果这样的直线存在就称为线性可分。

这篇关于神经元、神经网络和线性判别的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/838616

相关文章

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

线性因子模型 - 独立分量分析(ICA)篇

序言 线性因子模型是数据分析与机器学习中的一类重要模型,它们通过引入潜变量( latent variables \text{latent variables} latent variables)来更好地表征数据。其中,独立分量分析( ICA \text{ICA} ICA)作为线性因子模型的一种,以其独特的视角和广泛的应用领域而备受关注。 ICA \text{ICA} ICA旨在将观察到的复杂信号

✨机器学习笔记(二)—— 线性回归、代价函数、梯度下降

1️⃣线性回归(linear regression) f w , b ( x ) = w x + b f_{w,b}(x) = wx + b fw,b​(x)=wx+b 🎈A linear regression model predicting house prices: 如图是机器学习通过监督学习运用线性回归模型来预测房价的例子,当房屋大小为1250 f e e t 2 feet^

【高等代数笔记】线性空间(一到四)

3. 线性空间 令 K n : = { ( a 1 , a 2 , . . . , a n ) ∣ a i ∈ K , i = 1 , 2 , . . . , n } \textbf{K}^{n}:=\{(a_{1},a_{2},...,a_{n})|a_{i}\in\textbf{K},i=1,2,...,n\} Kn:={(a1​,a2​,...,an​)∣ai​∈K,i=1,2,...,n

机器学习之监督学习(三)神经网络

机器学习之监督学习(三)神经网络基础 0. 文章传送1. 深度学习 Deep Learning深度学习的关键特点深度学习VS传统机器学习 2. 生物神经网络 Biological Neural Network3. 神经网络模型基本结构模块一:TensorFlow搭建神经网络 4. 反向传播梯度下降 Back Propagation Gradient Descent模块二:激活函数 activ

图神经网络框架DGL实现Graph Attention Network (GAT)笔记

参考列表: [1]深入理解图注意力机制 [2]DGL官方学习教程一 ——基础操作&消息传递 [3]Cora数据集介绍+python读取 一、DGL实现GAT分类机器学习论文 程序摘自[1],该程序实现了利用图神经网络框架——DGL,实现图注意网络(GAT)。应用demo为对机器学习论文数据集——Cora,对论文所属类别进行分类。(下图摘自[3]) 1. 程序 Ubuntu:18.04

基于深度学习 卷积神经网络resnext50的中医舌苔分类系统

项目概述 本项目旨在通过深度学习技术,特别是利用卷积神经网络(Convolutional Neural Networks, CNNs)中的ResNeXt50架构,实现对中医舌象图像的自动分类。该系统不仅能够识别不同的舌苔类型,还能够在PyQt5框架下提供一个直观的图形用户界面(GUI),使得医生或患者能够方便地上传舌象照片并获取分析结果。 技术栈 深度学习框架:采用PyTorch或其他

图神经网络(2)预备知识

1. 图的基本概念         对于接触过数据结构和算法的读者来说,图并不是一个陌生的概念。一个图由一些顶点也称为节点和连接这些顶点的边组成。给定一个图G=(V,E),  其 中V={V1,V2,…,Vn}  是一个具有 n 个顶点的集合。 1.1邻接矩阵         我们用邻接矩阵A∈Rn×n表示顶点之间的连接关系。 如果顶点 vi和vj之间有连接,就表示(vi,vj)  组成了

带头结点的线性链表的基本操作

持续了好久,终于有了这篇博客,链表的操作需要借助图像模型进行反复学习,这里尽可能的整理并记录下自己的思考,以备后面复习,和大家分享。需要说明的是,我们从实际应用角度出发重新定义了线性表。 一. 定义 从上一篇文章可以看到,由于链表在空间的合理利用上和插入、删除时不需要移动等优点,因此在很多场合下,它是线性表的首选存储结构。然而,它也存在某些实现的缺点,如求线性表的长度时不如顺序存储结构的

自然语言处理系列六十三》神经网络算法》LSTM长短期记忆神经网络算法

注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书《自然语言处理原理与实战》(人工智能科学与技术丛书)【陈敬雷编著】【清华大学出版社】 文章目录 自然语言处理系列六十三神经网络算法》LSTM长短期记忆神经网络算法Seq2Seq端到端神经网络算法 总结 自然语言处理系列六十三 神经网络算法》LSTM长短期记忆神经网络算法 长短期记忆网络(LSTM,Long S